Ubuntu 16.04 mdadm Problem (State : active, FAILED)
Moin
ich wollte gestern zu einem RAID0 aus 3x2TB eine weiter 2TB platte hinzufügen:
mdadm --grow /dev/md0 --level=0 --raid-devices=4 --add /dev/sde1
daraufhin kam leider nur eine Meldung: RAID level changed to 4
also hat es einfach das RAID0 in ein RAID4 verändert (ich verstehe nicht wieso)
das RAID heißt jetzt /dev/md127 vielleicht hieß es vorher schon so und /dev/md0 war falsch
was ich leider nicht begreife was folgendes bedeutet:
hoffe mich kann jemand erläuchten, es scheint wohl so zu sein das man RAID0 nicht vergrößern kann, aber das dann einfach ein RAID4 daraus wird mit so komischen Meldungen:
State : active, FAILED <--- ist es active oder FAILED ?
4 8 65 3 spare rebuilding /dev/sde1 <--- ist es spare oder macht es einen rebuild?
ich werde echt nicht schlau aus dem Käse und bin für jede Idee dankbar
mfg und schönen Sonntag
edit: ich hab den tipp bekommen mit folgendem befehl es wieder in ein raid0 zu verwandeln
mdadm -G -l 0 /dev/md127
leider kommt da nur mdadm: /dev/md127: could not set level to raid0
aber es hat sich was geändert
also 2 als removed gekennzeichnet jetzt
ich wollte gestern zu einem RAID0 aus 3x2TB eine weiter 2TB platte hinzufügen:
mdadm --grow /dev/md0 --level=0 --raid-devices=4 --add /dev/sde1
daraufhin kam leider nur eine Meldung: RAID level changed to 4
also hat es einfach das RAID0 in ein RAID4 verändert (ich verstehe nicht wieso)
das RAID heißt jetzt /dev/md127 vielleicht hieß es vorher schon so und /dev/md0 war falsch
was ich leider nicht begreife was folgendes bedeutet:
mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Sat Sep 16 15:49:06 2017
Raid Level : raid4
Array Size : 5504626176 (5249.62 GiB 5636.74 GB)
Used Dev Size : 1834875392 (1749.87 GiB 1878.91 GB)
Raid Devices : 5
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sun Sep 17 10:55:21 2017
State : active, FAILED
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Chunk Size : 512K
Delta Devices : 1, (4->5)
Name : srv:0 (local to host srv)
UUID : 58e08b06:a5ad56e7:6e10d1be:d2c1c8db
Events : 20837
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
4 8 65 3 spare rebuilding /dev/sde1
8 0 0 8 removed
State : active, FAILED <--- ist es active oder FAILED ?
4 8 65 3 spare rebuilding /dev/sde1 <--- ist es spare oder macht es einen rebuild?
ich werde echt nicht schlau aus dem Käse und bin für jede Idee dankbar
mfg und schönen Sonntag
edit: ich hab den tipp bekommen mit folgendem befehl es wieder in ein raid0 zu verwandeln
mdadm -G -l 0 /dev/md127
leider kommt da nur mdadm: /dev/md127: could not set level to raid0
aber es hat sich was geändert
mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Sat Sep 16 15:49:06 2017
Raid Level : raid4
Array Size : 5504626176 (5249.62 GiB 5636.74 GB)
Used Dev Size : 1834875392 (1749.87 GiB 1878.91 GB)
Raid Devices : 5
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun Sep 17 11:17:19 2017
State : clean, FAILED
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Delta Devices : 1, (4->5)
Name : srv:0 (local to host srv)
UUID : 58e08b06:a5ad56e7:6e10d1be:d2c1c8db
Events : 21616
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
6 0 0 6 removed
8 0 0 8 removed
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 349302
Url: https://administrator.de/contentid/349302
Ausgedruckt am: 25.11.2024 um 18:11 Uhr
4 Kommentare
Neuester Kommentar
Moin,
nicht schön, wie Du da mit den Daten spielst...
4 8 65 3 spare rebuilding /dev/sde1
8 0 0 8 removed
sagt ja schon, daß er beim ersten Log gerade beim Umbauen war, dann war die Platte "removed",
falls die Daten irgendeinen Wert haben, steht jetzt zuerst ein Backup an!
Der Gerätename ist mdadm/dem Linux nicht so wichtig, d.h. wenn nicht explizit in einer Config /etc/mdadm.conf gebunden, kann der sich ändern:
Hat man auf dem RAID eine Partition definiert und formatiert (ggf. auch noch mit LVM-Zwischenschicht), spricht man diese (auch in /etc/fstab) über eine UUID an, sodaß auch nach dem booten das Dateisystem darauf stabil gefunden wird.
Ich würde vermuten, daß Du RAID-Level und Anzahl der Disks im mdadm-Kommando verwechselt hast.
Sehr prinzipiell läßt sich ein solcher Umbau machen, ABER die Daten dürfen echt nichts wert sein!
HG
Mark
nicht schön, wie Du da mit den Daten spielst...
4 8 65 3 spare rebuilding /dev/sde1
8 0 0 8 removed
sagt ja schon, daß er beim ersten Log gerade beim Umbauen war, dann war die Platte "removed",
falls die Daten irgendeinen Wert haben, steht jetzt zuerst ein Backup an!
Der Gerätename ist mdadm/dem Linux nicht so wichtig, d.h. wenn nicht explizit in einer Config /etc/mdadm.conf gebunden, kann der sich ändern:
Hat man auf dem RAID eine Partition definiert und formatiert (ggf. auch noch mit LVM-Zwischenschicht), spricht man diese (auch in /etc/fstab) über eine UUID an, sodaß auch nach dem booten das Dateisystem darauf stabil gefunden wird.
Ich würde vermuten, daß Du RAID-Level und Anzahl der Disks im mdadm-Kommando verwechselt hast.
Sehr prinzipiell läßt sich ein solcher Umbau machen, ABER die Daten dürfen echt nichts wert sein!
HG
Mark
ja, und dann als RAID5?!
Best Practice wäre (wenn schon Software-RAID), jede Platte zunächst mit GPT und einer Partition vom Typ RAID Hex: fd
zu versehen, eine Markierung um drann zu denken, daß die Platte Bestandteil eines RAIDs ist,
dann hat man /dev/sda1, /dev/sdb1, /dev/sdc1, diese dann zu einem RAID5, dieses dann mit LVM2 zu einer einzigen VolumeGroup hinzufügen und darin dann die LVMs erzeugen.
Bitte nach den Begriffen googlen...
HG
Mark
Best Practice wäre (wenn schon Software-RAID), jede Platte zunächst mit GPT und einer Partition vom Typ RAID Hex: fd
zu versehen, eine Markierung um drann zu denken, daß die Platte Bestandteil eines RAIDs ist,
dann hat man /dev/sda1, /dev/sdb1, /dev/sdc1, diese dann zu einem RAID5, dieses dann mit LVM2 zu einer einzigen VolumeGroup hinzufügen und darin dann die LVMs erzeugen.
Bitte nach den Begriffen googlen...
HG
Mark