tommy1735
Goto Top

Ubuntu 16.04 mdadm Problem (State : active, FAILED)

Moin

ich wollte gestern zu einem RAID0 aus 3x2TB eine weiter 2TB platte hinzufügen:
mdadm --grow /dev/md0 --level=0 --raid-devices=4 --add /dev/sde1

daraufhin kam leider nur eine Meldung: RAID level changed to 4
also hat es einfach das RAID0 in ein RAID4 verändert (ich verstehe nicht wieso)

das RAID heißt jetzt /dev/md127 vielleicht hieß es vorher schon so und /dev/md0 war falsch

was ich leider nicht begreife was folgendes bedeutet:
mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sat Sep 16 15:49:06 2017
     Raid Level : raid4
     Array Size : 5504626176 (5249.62 GiB 5636.74 GB)
  Used Dev Size : 1834875392 (1749.87 GiB 1878.91 GB)
   Raid Devices : 5
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Sun Sep 17 10:55:21 2017
          State : active, FAILED
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

     Chunk Size : 512K

  Delta Devices : 1, (4->5)

           Name : srv:0  (local to host srv)
           UUID : 58e08b06:a5ad56e7:6e10d1be:d2c1c8db
         Events : 20837

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       4       8       65        3      spare rebuilding   /dev/sde1
       8       0        0        8      removed
hoffe mich kann jemand erläuchten, es scheint wohl so zu sein das man RAID0 nicht vergrößern kann, aber das dann einfach ein RAID4 daraus wird mit so komischen Meldungen:
State : active, FAILED <--- ist es active oder FAILED ?
4 8 65 3 spare rebuilding /dev/sde1 <--- ist es spare oder macht es einen rebuild?

ich werde echt nicht schlau aus dem Käse und bin für jede Idee dankbar

mfg und schönen Sonntag

edit: ich hab den tipp bekommen mit folgendem befehl es wieder in ein raid0 zu verwandeln
mdadm -G -l 0 /dev/md127
leider kommt da nur mdadm: /dev/md127: could not set level to raid0

aber es hat sich was geändert
mdadm --detail /dev/md127
/dev/md127:
        Version : 1.2
  Creation Time : Sat Sep 16 15:49:06 2017
     Raid Level : raid4
     Array Size : 5504626176 (5249.62 GiB 5636.74 GB)
  Used Dev Size : 1834875392 (1749.87 GiB 1878.91 GB)
   Raid Devices : 5
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sun Sep 17 11:17:19 2017
          State : clean, FAILED
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

  Delta Devices : 1, (4->5)

           Name : srv:0  (local to host srv)
           UUID : 58e08b06:a5ad56e7:6e10d1be:d2c1c8db
         Events : 21616

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       6       0        0        6      removed
       8       0        0        8      removed
also 2 als removed gekennzeichnet jetzt

Content-Key: 349302

Url: https://administrator.de/contentid/349302

Printed on: April 20, 2024 at 04:04 o'clock

Member: broecker
broecker Sep 17, 2017 at 11:44:38 (UTC)
Goto Top
Moin,

nicht schön, wie Du da mit den Daten spielst...

4 8 65 3 spare rebuilding /dev/sde1
8 0 0 8 removed

sagt ja schon, daß er beim ersten Log gerade beim Umbauen war, dann war die Platte "removed",
falls die Daten irgendeinen Wert haben, steht jetzt zuerst ein Backup an!

Der Gerätename ist mdadm/dem Linux nicht so wichtig, d.h. wenn nicht explizit in einer Config /etc/mdadm.conf gebunden, kann der sich ändern:

Hat man auf dem RAID eine Partition definiert und formatiert (ggf. auch noch mit LVM-Zwischenschicht), spricht man diese (auch in /etc/fstab) über eine UUID an, sodaß auch nach dem booten das Dateisystem darauf stabil gefunden wird.

Ich würde vermuten, daß Du RAID-Level und Anzahl der Disks im mdadm-Kommando verwechselt hast.

Sehr prinzipiell läßt sich ein solcher Umbau machen, ABER die Daten dürfen echt nichts wert sein!

HG
Mark
Member: tommy1735
tommy1735 Sep 17, 2017 at 12:35:21 (UTC)
Goto Top
Danke für die Antwort
hab auch erst gedacht ich hätte das Kommando falsch eingegeben aber dem ist nicht so

hab hier https://askubuntu.com/questions/684086/how-do-i-convert-a-raid-4-array-t ... gefunden wie jemand das gleiche Problem hat

allerdings gibts mittlerweile mehr Probleme:
Sep 17 14:22:43 srv kernel: [70872.736082] EXT4-fs error (device md127): ext4_lookup:1601: inode #127533062: comm rtorrent main: deleted inode referenced: 127993644
Sep 17 14:22:43 srv kernel: [70872.739062] EXT4-fs (md127): previous I/O error to superblock detected
Sep 17 14:22:43 srv kernel: [70872.741532] Buffer I/O error on dev md127, logical block 0, lost sync page write
Sep 17 14:22:43 srv kernel: [70872.743064] EXT4-fs error (device md127): ext4_lookup:1601: inode #127533062: comm rtorrent main: deleted inode referenced: 127993644
Sep 17 14:22:43 srv kernel: [70872.745767] EXT4-fs (md127): previous I/O error to superblock detected
Sep 17 14:22:43 srv kernel: [70872.747068] Buffer I/O error on dev md127, logical block 0, lost sync page write

da die daten so gut wie wertlos sind sollte ich vermutlich alles platt und dann neu machen
Member: broecker
broecker Sep 17, 2017 at 14:46:38 (UTC)
Goto Top
ja, und dann als RAID5?!

Best Practice wäre (wenn schon Software-RAID), jede Platte zunächst mit GPT und einer Partition vom Typ RAID Hex: fd
zu versehen, eine Markierung um drann zu denken, daß die Platte Bestandteil eines RAIDs ist,
dann hat man /dev/sda1, /dev/sdb1, /dev/sdc1, diese dann zu einem RAID5, dieses dann mit LVM2 zu einer einzigen VolumeGroup hinzufügen und darin dann die LVMs erzeugen.

Bitte nach den Begriffen googlen...

HG
Mark
Member: tommy1735
tommy1735 Sep 18, 2017 at 09:51:50 (UTC)
Goto Top
Danke für die Rückmeldung

leider ist es gestern komplett gecrasht und es ging nichts mehr
die Daten sind verloren, zum Glück nichts wichtiges

schönen Tag noch und ich schließe das hier mal