Grobes Konzept Hyper-V Storage - Storage für Hyper-V
Hallo Administratoren.
Um VHDX-Daten zentral zu halten freue ich mich auf Euren konstruktiven Input.
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
grobe Eckdaten
5x VMHOST / 15TB HDD / 2TB SSD
Verbunden sind die Systeme über einen Switch per SFP+, die Performance passt.
Gesucht wird ein zentrales Speichermedium von welchem aus die VMs betrieben werden.
Ein Hyper-V-Cluster ist nicht erforderlich.
Ich suche hierfür einen einfachen Ansatz, d.h. auf Redundanz der Netzwerk-Infrastruktur muss nicht eingegangen werden, z.B.:
Gibt es noch etwas dazwischen?
Welche Erfahrungen konntet ihr mit dem Hersteller-Support machen?
Ich hoffe ich hatte nichts vergessen was für ein grobes Konzept reicht,
Danke für die Unterstützung!
Um VHDX-Daten zentral zu halten freue ich mich auf Euren konstruktiven Input.
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
grobe Eckdaten
5x VMHOST / 15TB HDD / 2TB SSD
Verbunden sind die Systeme über einen Switch per SFP+, die Performance passt.
Gesucht wird ein zentrales Speichermedium von welchem aus die VMs betrieben werden.
Ein Hyper-V-Cluster ist nicht erforderlich.
Ich suche hierfür einen einfachen Ansatz, d.h. auf Redundanz der Netzwerk-Infrastruktur muss nicht eingegangen werden, z.B.:
- Der Pragmatiker bietet den Ansatz ein NAS per LAN anzuschließen und über iSCI an den HOST zu klemmen.
- Das Systemhaus bietet klassisch ein 99,9% hochverfügbares/redundantes Konzept, mit doppelten Switchen, x Management Netzwerken, und performantem Storage... .
Gibt es noch etwas dazwischen?
Welche Erfahrungen konntet ihr mit dem Hersteller-Support machen?
Ich hoffe ich hatte nichts vergessen was für ein grobes Konzept reicht,
Danke für die Unterstützung!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 614774
Url: https://administrator.de/forum/grobes-konzept-hyper-v-storage-storage-fuer-hyper-v-614774.html
Ausgedruckt am: 31.03.2025 um 10:03 Uhr
26 Kommentare
Neuester Kommentar
Moin,
je nach Speicherplatzauslastung kannst du das über Veeam Replica lösen und die VMs zwischen den Hosts replizieren lassen. Blech scheint ja genug vorhanden zu sein.
Alternativ der Klassiker mit iSCSI Anbindung und z.B. NetApp oder EMC dahinter.
VG
Tezzla
je nach Speicherplatzauslastung kannst du das über Veeam Replica lösen und die VMs zwischen den Hosts replizieren lassen. Blech scheint ja genug vorhanden zu sein.
Alternativ der Klassiker mit iSCSI Anbindung und z.B. NetApp oder EMC dahinter.
VG
Tezzla
Moin,
das ist eine frage wie Verfügbar Du die VMs haben möchtest.
Es ist in der Regel günstiger eine schnelle Wiederherstellbarkeit der VMs als eine hohe Verfügbarkeit zu realisieren.
Dazu gehört z.B. Hyper-V-Replica.
Eine hohe Verfügbarkeit mittels redundanten Servern, SAN und Switchten ist toll.
Aber1: Es kostet recht viel Geld (man bekommt natürlich was dafür).
Aber2: Es ist eine komplexe Lösung. Wenn es hier einen (logischen) Fehler gibt, steht Alles und die Lösung ist meist nicht einfach und schnell zu realisieren.
Es ist wie gesagt eine Budget-, Bedarfs- und Konzept-Frage.
stefan
das ist eine frage wie Verfügbar Du die VMs haben möchtest.
Es ist in der Regel günstiger eine schnelle Wiederherstellbarkeit der VMs als eine hohe Verfügbarkeit zu realisieren.
Dazu gehört z.B. Hyper-V-Replica.
Eine hohe Verfügbarkeit mittels redundanten Servern, SAN und Switchten ist toll.
Aber1: Es kostet recht viel Geld (man bekommt natürlich was dafür).
Aber2: Es ist eine komplexe Lösung. Wenn es hier einen (logischen) Fehler gibt, steht Alles und die Lösung ist meist nicht einfach und schnell zu realisieren.
Es ist wie gesagt eine Budget-, Bedarfs- und Konzept-Frage.
stefan
Zitat von @nachgefragt:
Ein ausreichend performantes Storage Area Network (SAN) haben wir durch die SFP+ Anbindung, die HOST-System unterhalten sich in ausreichender Performance.
Mir geht es eher um ein Network Attached Storage (NAS) auf welchem ich die VMs ablege und laufen lassen kann.
Ein ausreichend performantes Storage Area Network (SAN) haben wir durch die SFP+ Anbindung, die HOST-System unterhalten sich in ausreichender Performance.
Mir geht es eher um ein Network Attached Storage (NAS) auf welchem ich die VMs ablege und laufen lassen kann.
????
Wenn Ihr ein SAN habt warum solltet Ihr ein NAS kaufen?
Zitat von @nachgefragt:
Moin, die Replikation ist mMn ein anderer Ansatz, ähnlich wie ein Cluster, oder?
Moin, die Replikation ist mMn ein anderer Ansatz, ähnlich wie ein Cluster, oder?
Jein. Beim Cluster wird bei Events, z.B. fehlender Heartbeat eines VM Hosts, z.B. eine Migration der VM von Host A nach Host B durchgeführt. Wobei genau genommen nur die VM auf einem anderen Host gestartet wird. Arbeitsspeicher und Co gehen verloren.
Bei einer Replikation hast du eine Kopie von VM 1 auf Host A auch auf Host B. Veeam regelt dabei die Datenübertragung und die Verfügbarkeit. Für eine Replikation brauchst du keinen Shared Storage. Das ist beim Cluster anders (soweit ich weiß).
Wenn man sich den Zampano mit Shared Storage sparen will, kannst du zwei große VM Hosts sizen und die Daten zwischen denen replizieren lassen. Billiger HA, aber gets shit done.
Moin Moin,
Es ist nicht mein Bereich, aber automatisch macht man sich dazu Gedanken
Ich würde klären
Ob die komplette VM verfügbar sein muss oder "nur" die Daten dahinter.
Wie schnell verfügbar muss das sein bei Ausfall.
Sollen die VM "lokal", also mit der schnellsten Verbindung, verfügbar sein, oder auch eventuell mit Abstrichen an anderen Standorten.
Hochverfügbarkeit, wie ja schon erwähnt wurde, ist nicht nur teuer sondern auch selten notwendig.
Wenn der Anwender 10-15min Pause machen muss weil die VM / der server da drunter abgeraucht ist und man dafür massen an Geld sparen kann... Im normalen Alltag werden viele Verantwortliche diese Gegeneinanderlegung nicht zahlen wollen.
Wenn es natürlich Hochverfügbare Systeme sein müssen und der Verlust eventuell, und bei sowas sollte man Worst Cases berechnen, dieses locker ausgleichen, kann man das auch dem Geldgeber beibringen.
Das ist finde Ich als allererstes wichtig geklärt zu haben.
Ein vernünftiges NAS / SAN mit entsprechenden Redundanzen, die in DIESER jetzt Zustand Leistungsklasse dazu gehören, sind schon recht nahe an Hochverfügbarkeit.
Um die verschiedenen Standorte / Server zu erreichen benötigt man mehrere Netzwerkkarten, sonst ist DAS dann ein Flaschenhals, auch mit 10GB Karten.
Ich würde mir überlegen was ist der grobe Budget Rahmen.
Was soll anders sein gegenüber dem jetzigen Zeitpunkt, WARUM?
Wenn ein Grund klar ist kann man auf den Grund eingehen ohne gleich große, und damit teure, Keulen zu schwingen.
Änderung an sich ist ok.
Nur nicht als Grund
Was beschrieben wurde hört sich für mich schon recht gut und performant an.
Warum soll das geändert werden?
Was soll anders werden?
Wie gesagt, die Kosten für Optimierung sind meistens höher als wenn man gleich etwas höher dimensioniertes nimmt
Mein Senf
Es ist nicht mein Bereich, aber automatisch macht man sich dazu Gedanken
Ich würde klären
Ob die komplette VM verfügbar sein muss oder "nur" die Daten dahinter.
Wie schnell verfügbar muss das sein bei Ausfall.
Sollen die VM "lokal", also mit der schnellsten Verbindung, verfügbar sein, oder auch eventuell mit Abstrichen an anderen Standorten.
Hochverfügbarkeit, wie ja schon erwähnt wurde, ist nicht nur teuer sondern auch selten notwendig.
Wenn der Anwender 10-15min Pause machen muss weil die VM / der server da drunter abgeraucht ist und man dafür massen an Geld sparen kann... Im normalen Alltag werden viele Verantwortliche diese Gegeneinanderlegung nicht zahlen wollen.
Wenn es natürlich Hochverfügbare Systeme sein müssen und der Verlust eventuell, und bei sowas sollte man Worst Cases berechnen, dieses locker ausgleichen, kann man das auch dem Geldgeber beibringen.
Das ist finde Ich als allererstes wichtig geklärt zu haben.
Ein vernünftiges NAS / SAN mit entsprechenden Redundanzen, die in DIESER jetzt Zustand Leistungsklasse dazu gehören, sind schon recht nahe an Hochverfügbarkeit.
Um die verschiedenen Standorte / Server zu erreichen benötigt man mehrere Netzwerkkarten, sonst ist DAS dann ein Flaschenhals, auch mit 10GB Karten.
Ich würde mir überlegen was ist der grobe Budget Rahmen.
Was soll anders sein gegenüber dem jetzigen Zeitpunkt, WARUM?
Wenn ein Grund klar ist kann man auf den Grund eingehen ohne gleich große, und damit teure, Keulen zu schwingen.
Änderung an sich ist ok.
Nur nicht als Grund
Was beschrieben wurde hört sich für mich schon recht gut und performant an.
Warum soll das geändert werden?
Was soll anders werden?
Wie gesagt, die Kosten für Optimierung sind meistens höher als wenn man gleich etwas höher dimensioniertes nimmt
Mein Senf
Zitat von @nachgefragt:
Moin.
Ein ausreichend performantes Storage Area Network (SAN) haben wir durch die SFP+ Anbindung, die HOST-System unterhalten sich in ausreichender Performance.
Mir geht es eher um ein Network Attached Storage (NAS) auf welchem ich die VMs ablege und laufen lassen kann.
https://www.netapp.com/de/data-storage/what-is-san-storage-area-network/Moin.
Ein ausreichend performantes Storage Area Network (SAN) haben wir durch die SFP+ Anbindung, die HOST-System unterhalten sich in ausreichender Performance.
Mir geht es eher um ein Network Attached Storage (NAS) auf welchem ich die VMs ablege und laufen lassen kann.
Wenn Ihr ein SAN habt warum solltet Ihr ein NAS kaufen?
Ich glaub weil ich "SAN" mit "Speichernetzwerk" gleichsetze, und "NAS" als die Speichereinheit.Bei einem SAN erfolgt der Dateizugriff blockbasiert und dieses ist meist über SAS, FC oder per FCoE angeschlossen.
Mittlerweile bieten dies aber auch einige typische NAS Anbieter an. Die QNAPs lassen sich auch über SAS oder FC blockbasiert ansteuern.
Ggf. wäre damit auch ein NAS aus der Enterprise Klasse was für dich. z.B. QNAP Full Flash SSD mit optionaler FC Anbindung.
Ist natürlich nicht vergleichbar mit einem FullFlash EMC, Dell, Huawei o.ä. aber es ist ggf. für dich ausreichend performant. Hohen Datenraten und IOPS erreichst du damit auch
Von wie viel VM reden wir? Mehrere SQL Server ?
Zitat von @nachgefragt:

Eines vieler Nachteile: Host fällt aus
Wir kopieren die VMs auf die anderen Hosts aus dem Backup, diese werden dann dort einfach gestartet.
Vielleicht halten wir Prio-Systeme sogar dort cold standby.
Problem: Eine VM ist 6TB oder größer. Demnach müsstse jeder Host min. 6TB oder mehr auf Vorrat haben, ich weiß ja nicht welcher Host ausfällt.
Wie bereits eingangs erwähnt erkundige ich mich über Zwischenansätze Pragmatiker / Systemhaus.
Vielleicht ist aber auch der Ansatz Host + Storage veraltet.
Zitat von @TomTomBon:
Warum soll das geändert werden?
Zitat von @nachgefragt:
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
Danke für eineen Senf Warum soll das geändert werden?
Zitat von @nachgefragt:
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
Eines vieler Nachteile: Host fällt aus
Wir kopieren die VMs auf die anderen Hosts aus dem Backup, diese werden dann dort einfach gestartet.
Vielleicht halten wir Prio-Systeme sogar dort cold standby.
Problem: Eine VM ist 6TB oder größer. Demnach müsstse jeder Host min. 6TB oder mehr auf Vorrat haben, ich weiß ja nicht welcher Host ausfällt.
Wie bereits eingangs erwähnt erkundige ich mich über Zwischenansätze Pragmatiker / Systemhaus.
Vielleicht ist aber auch der Ansatz Host + Storage veraltet.
Richtig. Daher wie oben schon geschrieben einen S2D Cluster. Da ist es egal welcher Host ausfällt.
Weil wenn du ein San hast das ausfällt , hast du immer noch einen Totalausfall.
Plattenplatz muss natürlich ausreichend vorhanden sein. Ist heute aber ja auch nicht mehr soooo teuer.
Gruss
Um VHDX-Daten zentral zu halten freue ich mich auf Euren konstruktiven Input.
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
grobe Eckdaten
5x VMHOST / 15TB HDD / 2TB SSD
Verbunden sind die Systeme über einen Switch per SFP+, die Performance passt.
Gesucht wird ein zentrales Speichermedium von welchem aus die VMs betrieben werden.
Ein Hyper-V-Cluster ist nicht erforderlich.
Ich suche hierfür einen einfachen Ansatz, d.h. auf Redundanz der Netzwerk-Infrastruktur muss nicht eingegangen werden, z.B.:
Bisher liegen die VHDX-Daten jeweils auf dem VMHOST direkt, dessen Nachteile ergeben sich natürlich selbstverständlich.
grobe Eckdaten
5x VMHOST / 15TB HDD / 2TB SSD
Verbunden sind die Systeme über einen Switch per SFP+, die Performance passt.
Gesucht wird ein zentrales Speichermedium von welchem aus die VMs betrieben werden.
Ein Hyper-V-Cluster ist nicht erforderlich.
Ich suche hierfür einen einfachen Ansatz, d.h. auf Redundanz der Netzwerk-Infrastruktur muss nicht eingegangen werden, z.B.:
- Der Pragmatiker bietet den Ansatz ein NAS per LAN anzuschließen und über iSCI an den HOST zu klemmen.
- Das Systemhaus bietet klassisch ein 99,9% hochverfügbares/redundantes Konzept, mit doppelten Switchen, x Management Netzwerken, und performantem Storage... .
Dann nimm ein einfaches NAS (QNAP/Synology) als iSCSI Speicher. Das passt dann perfekt zur Gesamtkonfiguration
Zitat von @nachgefragt:
Zitat von @itisnapanto:
Richtig. Daher wie oben schon geschrieben einen S2D Cluster. Da ist es egal welcher Host ausfällt.
Weil wenn du ein San hast das ausfällt , hast du immer noch einen Totalausfall.
Plattenplatz muss natürlich ausreichend vorhanden sein. Ist heute aber ja auch nicht mehr soooo teuer.
Danke, ich schau mir Storage Spaces Direct (S2D) genau an, ist aber schon ab Server 2016 lt. dem Bericht.Richtig. Daher wie oben schon geschrieben einen S2D Cluster. Da ist es egal welcher Host ausfällt.
Weil wenn du ein San hast das ausfällt , hast du immer noch einen Totalausfall.
Plattenplatz muss natürlich ausreichend vorhanden sein. Ist heute aber ja auch nicht mehr soooo teuer.
Sicherlich nicht verkehrt sich damit zu beschäftigen. Ich sehe allerdings für die jetzige Umgebung wenig Chancen für eine brauchbare Implementierung.
Hallo,
Ich habe hier einen HA-Cluster mit zwei großen Synology NAS stehen.
Jeweils 2x Intel 10GBE für Netzwerk und Sync Interface. Da drin RAID 6 mit SSDs.
Das ganze speißt einen Hyber-V Cluster über iSCSI.
Switche sind SFP+ von Netgear im Stack.
Dort laufen ca. 10 VMs mit IIS/SQL/DC/Exchange usw.
Ist auch im Worstcase Test von Synology/Switch/Hyper-V Host Strom aus noch nie abgestürzt.
Du kannst natürlich die Redundanz auch weglassen und die VHDX direkt auf eine Synology legen. Würde ich aber sein lassen, zumal sich die Kosten für die Redundanz in dem Konzept nur auf ein paar Tausend Euro beschränken. Das sollte dir ein stabiles VM Storage Wert sein.
lg
Theo
Ich habe hier einen HA-Cluster mit zwei großen Synology NAS stehen.
Jeweils 2x Intel 10GBE für Netzwerk und Sync Interface. Da drin RAID 6 mit SSDs.
Das ganze speißt einen Hyber-V Cluster über iSCSI.
Switche sind SFP+ von Netgear im Stack.
Dort laufen ca. 10 VMs mit IIS/SQL/DC/Exchange usw.
Ist auch im Worstcase Test von Synology/Switch/Hyper-V Host Strom aus noch nie abgestürzt.
Du kannst natürlich die Redundanz auch weglassen und die VHDX direkt auf eine Synology legen. Würde ich aber sein lassen, zumal sich die Kosten für die Redundanz in dem Konzept nur auf ein paar Tausend Euro beschränken. Das sollte dir ein stabiles VM Storage Wert sein.
lg
Theo
Zitat von @theoberlin:
Hallo,
Ich habe hier einen HA-Cluster mit zwei großen Synology NAS stehen.
Jeweils 2x Intel 10GBE für Netzwerk und Sync Interface. Da drin RAID 6 mit SSDs.
Das ganze speißt einen Hyber-V Cluster über iSCSI.
Switche sind SFP+ von Netgear im Stack.
Dort laufen ca. 10 VMs mit IIS/SQL/DC/Exchange usw.
Ist auch im Worstcase Test von Synology/Switch/Hyper-V Host Strom aus noch nie abgestürzt.
Du kannst natürlich die Redundanz auch weglassen und die VHDX direkt auf eine Synology legen. Würde ich aber sein lassen, zumal sich die Kosten für die Redundanz in dem Konzept nur auf ein paar Tausend Euro beschränken. Das sollte dir ein stabiles VM Storage Wert sein.
lg
Theo
Hallo,
Ich habe hier einen HA-Cluster mit zwei großen Synology NAS stehen.
Jeweils 2x Intel 10GBE für Netzwerk und Sync Interface. Da drin RAID 6 mit SSDs.
Das ganze speißt einen Hyber-V Cluster über iSCSI.
Switche sind SFP+ von Netgear im Stack.
Dort laufen ca. 10 VMs mit IIS/SQL/DC/Exchange usw.
Ist auch im Worstcase Test von Synology/Switch/Hyper-V Host Strom aus noch nie abgestürzt.
Du kannst natürlich die Redundanz auch weglassen und die VHDX direkt auf eine Synology legen. Würde ich aber sein lassen, zumal sich die Kosten für die Redundanz in dem Konzept nur auf ein paar Tausend Euro beschränken. Das sollte dir ein stabiles VM Storage Wert sein.
lg
Theo
Wenn schon von Syology als SAN für VM-Umgebungen die Rede ist, könnte auch die UC3200 interessant sein, die von grund auf redundant ausgelegt zu sein scheint.