NVMe-RAID im Failover Cluster?
Hallo allerseits,
ich habe zzt. einen Linux Failover-Virtualisierungscluster mit 2 Nodes und 8x12 TB HDD jeweils im RAID6.
Medizinische Bilddaten. Einmal geschrieben, wird eigentlich nur noch gelesen.
35 Arbeitsplätze, 10x Homeoffice, 2 Webportale für Ärzte und Patienten.
10GBb/s Backbone, 100MBit/s symmetrisch Internet.
Nun steht der Austausch der Serverhardware an und ich überlege, auf NVMe umzusteigen.
Ja, bei dem Volumen ist das noch sauteuer, aber man gönnt sich ja sonst nix...
Dazu zwei Fragen:
1. Gibt es neben den Kosten technische Gründe, die gegen so große NVMe-Server sprechen?
IOPS ist auch mit HDD zzt noch unkritisch. Wollte nur mal grundsätzlich fragen.
2. Wenn NVMe: Soll ich die NVMe auch ins RAID6 setzen oder reicht nicht auch eine LVM VG?
Failover-Redundanz wäre ja durch den Secondary Node gegeben.
Danke und Gruß
Andreas
ich habe zzt. einen Linux Failover-Virtualisierungscluster mit 2 Nodes und 8x12 TB HDD jeweils im RAID6.
Medizinische Bilddaten. Einmal geschrieben, wird eigentlich nur noch gelesen.
35 Arbeitsplätze, 10x Homeoffice, 2 Webportale für Ärzte und Patienten.
10GBb/s Backbone, 100MBit/s symmetrisch Internet.
Nun steht der Austausch der Serverhardware an und ich überlege, auf NVMe umzusteigen.
Ja, bei dem Volumen ist das noch sauteuer, aber man gönnt sich ja sonst nix...
Dazu zwei Fragen:
1. Gibt es neben den Kosten technische Gründe, die gegen so große NVMe-Server sprechen?
IOPS ist auch mit HDD zzt noch unkritisch. Wollte nur mal grundsätzlich fragen.
2. Wenn NVMe: Soll ich die NVMe auch ins RAID6 setzen oder reicht nicht auch eine LVM VG?
Failover-Redundanz wäre ja durch den Secondary Node gegeben.
Danke und Gruß
Andreas
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 1328037095
Url: https://administrator.de/forum/nvme-raid-im-failover-cluster-1328037095.html
Ausgedruckt am: 11.04.2025 um 02:04 Uhr
9 Kommentare
Neuester Kommentar
Hallo!
Gegen NVMe spricht eigentlich nur, dass es keine wirklich guten Lösungen für "Hardware-Raid" zu geben scheint. Wenn Du ohnehin auf ein Software-Raid gehen möchtest, dann ist das zumindest technisch eine Option. Was für mich nur absolut nicht zusammen passt:
Du nimmst ein Raid6, das eher ein "Performance-Killer" ist. Dann bringst Du NVMe ins Spiel, das eigentlich in Frage kommt, wenn es um hohe IOPS geht.
--> Raid6 wird Dir auch mit NVMe keine hohe Schreibperformance bringen, da DoubleParity eben nicht performant ist.
--> Wenn es, wie Du sagst, um sequenzielles Lesen von Bilddaten geht, sind NVMe auch nicht wirklich schneller, als alte, drehende Platten, oder normale SSDs.
Bei scheinbar benötigten ca. 72TB kostet NVMe richtig Geld. Dann muss es auch nötigt sein.
So richtig schlüssig wirkt es auf mich nicht.
Phil
Gegen NVMe spricht eigentlich nur, dass es keine wirklich guten Lösungen für "Hardware-Raid" zu geben scheint. Wenn Du ohnehin auf ein Software-Raid gehen möchtest, dann ist das zumindest technisch eine Option. Was für mich nur absolut nicht zusammen passt:
Du nimmst ein Raid6, das eher ein "Performance-Killer" ist. Dann bringst Du NVMe ins Spiel, das eigentlich in Frage kommt, wenn es um hohe IOPS geht.
--> Raid6 wird Dir auch mit NVMe keine hohe Schreibperformance bringen, da DoubleParity eben nicht performant ist.
--> Wenn es, wie Du sagst, um sequenzielles Lesen von Bilddaten geht, sind NVMe auch nicht wirklich schneller, als alte, drehende Platten, oder normale SSDs.
Bei scheinbar benötigten ca. 72TB kostet NVMe richtig Geld. Dann muss es auch nötigt sein.
So richtig schlüssig wirkt es auf mich nicht.
Phil
Nun bestimmte Workloads profitieren natürlich von SSD. Ich würde dann aber eher ergänzend einen oder zwei SAN Knoten für bestimmte Workloads zusätzlich anschaffen und nicht ein riesiges Datenarchiv das auf aktueller Hardware läuft kostspielig auf SSDs umziehen. Ich denke mal der Online Zugriff wird jetzt ein SAS RAID nicht so schnell in die Knie zwingen 
Wenn man die Kosten niedrig halten will, würde ich jetzt nicht auf only-NVMe setzen, sondern eventuell auf eine andere Cluster-Technologie wie Ceph zurückgreifen. Dort dann Cache-Devices mit schnellen NVMe verwenden und kombinieren mit günstigen SAS-HDD. Somit hat man das beste aus beiden Welten.
Weil das was du da beschreibst, hat wenig mit einem Cluster zu tun. Ich vermute mal du verwendest ein DRBD mit LVM drauf. Das ist nichts weiter als eine Replikation von Storage und Failover. Ein Cluster geht bei 3 Nodes aufwärts los... zumindest verstehe ich das unter dem Begriff "Cluster".
Wie schon geschrieben, würde ich auch kein Raid6 mehr nehmen. Schon gar nicht bei SSDs. Der Nutzen-Kosten-Aufwand steht in keinem Verhältnis. Egal wie wichtig die Daten sind... und das sagt einer der selbst im medizinischen Sektor unterwegs ist. Ein Backup braucht man sowieso immer und wenn es um den Schutz vor Bad Blocks geht, dann machen ZFS (Mirror, Stripped Mirror) und Ceph einen deutlich besseren Job.
Weil das was du da beschreibst, hat wenig mit einem Cluster zu tun. Ich vermute mal du verwendest ein DRBD mit LVM drauf. Das ist nichts weiter als eine Replikation von Storage und Failover. Ein Cluster geht bei 3 Nodes aufwärts los... zumindest verstehe ich das unter dem Begriff "Cluster".
Wie schon geschrieben, würde ich auch kein Raid6 mehr nehmen. Schon gar nicht bei SSDs. Der Nutzen-Kosten-Aufwand steht in keinem Verhältnis. Egal wie wichtig die Daten sind... und das sagt einer der selbst im medizinischen Sektor unterwegs ist. Ein Backup braucht man sowieso immer und wenn es um den Schutz vor Bad Blocks geht, dann machen ZFS (Mirror, Stripped Mirror) und Ceph einen deutlich besseren Job.
Proxmox ist auch weitestgehend OpenSource. Die setzen auf ein leicht abgeändertes Debian und für VMs auf KVM und bei Containern auf LXC. Besser und schneller bekommt man keine virtuelle Umgebung aufgebaut. Zumindest zum Null-Tarif nicht.
Die Integration zum Beispiel von Ceph bringt halt viele Vorteile und es wird alles regelmäßig auf dem aktuellen Stand gehalten. Genauso gut kannst du auch Proxmox komplett über die CLI bedienen.
Die Integration zum Beispiel von Ceph bringt halt viele Vorteile und es wird alles regelmäßig auf dem aktuellen Stand gehalten. Genauso gut kannst du auch Proxmox komplett über die CLI bedienen.
Mit Hyper-V oder VMWare wird einfach alles um ein vielfaches teurer. Alleine wenn man stinknormale Failover-Funktionalitäten nachbilden möchte.
Normalerweise muss man sich erstmal klar darüber werden was man für ein Betriebssystem oder Hypervisor man einsetzen möchte. Da mögen mir zwar viele widersprechen, aber aus meiner Erfahrung heraus ist es mittlerweile so das sich dann erst heraus kristallisiert was man für Hardware verwenden möchte.
Während zum Beispiel bei Proxmox ein Hardware-Raid-Controller wenig Sinn macht, sieht es bei VMWare schon wieder anders aus.
Als erstes darüber klar werden was man für Software einsetzen möchte, dann Topologie/Anforderung (Ausfallsicherheit, Backup, Failover, Cluster, Shared Storage, etc. pp.), dann Hardware.
Normalerweise muss man sich erstmal klar darüber werden was man für ein Betriebssystem oder Hypervisor man einsetzen möchte. Da mögen mir zwar viele widersprechen, aber aus meiner Erfahrung heraus ist es mittlerweile so das sich dann erst heraus kristallisiert was man für Hardware verwenden möchte.
Während zum Beispiel bei Proxmox ein Hardware-Raid-Controller wenig Sinn macht, sieht es bei VMWare schon wieder anders aus.
Als erstes darüber klar werden was man für Software einsetzen möchte, dann Topologie/Anforderung (Ausfallsicherheit, Backup, Failover, Cluster, Shared Storage, etc. pp.), dann Hardware.