Windows 2022 Hyper-V Cluster - S2D
Moin,
Ich habe einen vorhandenen Windows 2022 Datacenter Hyper-V mit 10 VM's.
Ich würde nun gerne eine 2. Server aufbauen und aus den zwei Servern ein Cluster machen. Möchte gerne dafür die vorhandenen Festplatten direkt nutzen ohne ein Extra Storage und wenn möglich über die 10 GB Nic's direkt verbinden ohne einen Switch.
Live Server:
Auf Festplatte C:\ ist das OS und auf Festplatte D:\ sind die VM's inkl. Config
4 x 1 GB Nic als Trunk für die VM's
1 x 1 GB Nic für OS only
1 x 10 GB Nic - Nicht benutzt
Ergänzender Server womit der Cluster realisiert werden soll:
Auf Festplatte C:\ ist das OS / Festplatte D:\ "Leer"
4 x 1 GB Nic als Trunk für die VM's
1 x 1 GB Nic für OS only
1 x 10 GB Nic - Nicht benutzt
Überall sehe ich die Anleitungen für komplett neu installierte Server, aber hat jemand einen Ansatz für einen bereits laufenden Server mit VM's?
Gruss
Peter
Ich habe einen vorhandenen Windows 2022 Datacenter Hyper-V mit 10 VM's.
Ich würde nun gerne eine 2. Server aufbauen und aus den zwei Servern ein Cluster machen. Möchte gerne dafür die vorhandenen Festplatten direkt nutzen ohne ein Extra Storage und wenn möglich über die 10 GB Nic's direkt verbinden ohne einen Switch.
Live Server:
Auf Festplatte C:\ ist das OS und auf Festplatte D:\ sind die VM's inkl. Config
4 x 1 GB Nic als Trunk für die VM's
1 x 1 GB Nic für OS only
1 x 10 GB Nic - Nicht benutzt
Ergänzender Server womit der Cluster realisiert werden soll:
Auf Festplatte C:\ ist das OS / Festplatte D:\ "Leer"
4 x 1 GB Nic als Trunk für die VM's
1 x 1 GB Nic für OS only
1 x 10 GB Nic - Nicht benutzt
Überall sehe ich die Anleitungen für komplett neu installierte Server, aber hat jemand einen Ansatz für einen bereits laufenden Server mit VM's?
Gruss
Peter
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 82957429836
Url: https://administrator.de/contentid/82957429836
Ausgedruckt am: 26.11.2024 um 10:11 Uhr
13 Kommentare
Neuester Kommentar
Zitat von @ArnoNymous:
Moin,
den Failovercluster kannst du jederzeit nachinstallieren.
Die Frage ist: was erhoffst du dir ohne Storage?
Gruß
Moin,
den Failovercluster kannst du jederzeit nachinstallieren.
Die Frage ist: was erhoffst du dir ohne Storage?
Gruß
ich nehme an er möchte halt mehr CPU und RAM verfügbar haben, wobei der "Storage" auf Server 1 bleibt.
würde ich jetz drauf tippen
S2D würde ich bei zwei Nodes nicht machen, braucht außerdem zertifizierte Hardware soweit ich weiß. Starwind vSAN würde sich da eher anbieten. 10gbit/s sind aber knapp, würde eher auf 25gbit/s gehen und vernünftige NICs verwenden, sprich NVIDIA Mellanox. Sind da denn wirklich nur 2 Platten pro Server drin ? Normalerweise setzt man ein vSAN so auf das auf jedem Server ein identischer Raid-Verbund läuft.
Zitat von @cordial:
Moin,
Nachinstallation ist mir soweit klar, aber auch die Nachkonfiguration? Oder erkennt er das einfach selber, wenn ich den Failover Assistent durchlaufen lasse, dass es schon jeweils Storage auf beiden Servern auf dem Laufwerk D:\ gibt?
Möchte einfach kein ext. Storage nutzen.
Moin,
Nachinstallation ist mir soweit klar, aber auch die Nachkonfiguration? Oder erkennt er das einfach selber, wenn ich den Failover Assistent durchlaufen lasse, dass es schon jeweils Storage auf beiden Servern auf dem Laufwerk D:\ gibt?
Möchte einfach kein ext. Storage nutzen.
Du brauchst zwingend geteilten Storage um einen Failovercluster zu betreiben. Ob der jetzt extern mit iscsi / FC / SAS etc. angebunden ist oder "virtuell" von S2D, Starwind vSAN, Stormagic SvSAN, usw. bereitgestellt wird macht keinen unterschied.
Moin @cordial,
was hast du denn für 10G NIC's in deinen Servern?
Wenn welche von Broadcom, dann vergiss das S2D bitte gleich wieder, denn das wird mit diesen NIC's nicht wirklich gut laufen. Die Broadcom NIC's sind übrigens generell bei einem Hyper-V das Schlechteste was man erwischen kann, da diese dafür nicht wirklich kompatibel sind und zwar genaugenommen ab Hyper-V 2012, weil die einen üblen HW-BUG haben. 😔
Ich würde dir generell empfehlen die Finger von S2D zu lassen, da es zwar +- funktioniert, sich aber performance- und auch ausfalltechnisch nicht wirklich mit einem Enterprise-SAN messen kann.
Schau dir mal die folgenden Gerättle an ...
https://www.infortrend.com/de/products/ds
... der folgende und auch mitunter kleinster Head kann sich locker mit einem Altera MP 8C Node anlegen ...
https://www.infortrend.com/de/products/families/esds/1000b
... kostet jedoch nur einen Bruchteil von diesem.
Sprich, der DS 1024B Head mit redundanten Kontrollern, kostet auf jeden Fall unter 10K.
Plus noch die Kosten für die SSD's, die bei Infortrend im vergleich zu vielen anderen auch sehr überschaubar sind und schon hast du ratz fatz ein viel professionales/zuverlässigeres/schnelleres 2-Node-Enterprise-Hyper-V-HA-Cluster. 😁
Gruss Alex
Möchte einfach kein ext. Storage nutzen.
was hast du denn für 10G NIC's in deinen Servern?
Wenn welche von Broadcom, dann vergiss das S2D bitte gleich wieder, denn das wird mit diesen NIC's nicht wirklich gut laufen. Die Broadcom NIC's sind übrigens generell bei einem Hyper-V das Schlechteste was man erwischen kann, da diese dafür nicht wirklich kompatibel sind und zwar genaugenommen ab Hyper-V 2012, weil die einen üblen HW-BUG haben. 😔
Ich würde dir generell empfehlen die Finger von S2D zu lassen, da es zwar +- funktioniert, sich aber performance- und auch ausfalltechnisch nicht wirklich mit einem Enterprise-SAN messen kann.
Schau dir mal die folgenden Gerättle an ...
https://www.infortrend.com/de/products/ds
... der folgende und auch mitunter kleinster Head kann sich locker mit einem Altera MP 8C Node anlegen ...
https://www.infortrend.com/de/products/families/esds/1000b
... kostet jedoch nur einen Bruchteil von diesem.
Sprich, der DS 1024B Head mit redundanten Kontrollern, kostet auf jeden Fall unter 10K.
Plus noch die Kosten für die SSD's, die bei Infortrend im vergleich zu vielen anderen auch sehr überschaubar sind und schon hast du ratz fatz ein viel professionales/zuverlässigeres/schnelleres 2-Node-Enterprise-Hyper-V-HA-Cluster. 😁
Gruss Alex
Moin @Vision2015,
ich glaube der TO hat grade aufgelegt
oder er überlegt, weil er bisher für ein HA-SAN andere Preise im Kopf hatte.
Denn bei den 10K, sind auch schon zwei SAS-Hostboards mit dabei, voller RAM Ausbau und die Garantieerweiterung auf 5 Jahre, fehlt nur noch der Flash (SSD's) in der benötigten Grösse. 😉
Und jetzt mal ehrlich, 10K für ein anständiges SAN was locker über 5 Jahre läuft, sind gerade mal 166,-€/Monat und das ist nun wirklich nicht viel. Wenn der TO 10 MS 365 Abbos hat, dann bezahlt er pro Monat bereits mehr an MS für sein Office.
Ist definitiv auch eine Möglichkeit, mit der der TO sicherlich zufriedener sein wird, wie mit diesem marketingaufgeblasenem S2D-Krepp.
Gruss Alex
Sprich, der DS 1024B Head mit redundanten Kontrollern, kostet auf jeden Fall unter 10K.
ich glaube der TO hat grade aufgelegt
oder er überlegt, weil er bisher für ein HA-SAN andere Preise im Kopf hatte.
Denn bei den 10K, sind auch schon zwei SAS-Hostboards mit dabei, voller RAM Ausbau und die Garantieerweiterung auf 5 Jahre, fehlt nur noch der Flash (SSD's) in der benötigten Grösse. 😉
Und jetzt mal ehrlich, 10K für ein anständiges SAN was locker über 5 Jahre läuft, sind gerade mal 166,-€/Monat und das ist nun wirklich nicht viel. Wenn der TO 10 MS 365 Abbos hat, dann bezahlt er pro Monat bereits mehr an MS für sein Office.
und ich glaube, der TO ist mit Hyper-V Replikation am besten aufgehoben!
Ist definitiv auch eine Möglichkeit, mit der der TO sicherlich zufriedener sein wird, wie mit diesem marketingaufgeblasenem S2D-Krepp.
Gruss Alex
Nun ja ein S2D Cluster kann man schon bauen wenn die Hardware passt.
Bei zwei Nodes ist es ja technisch gesehen eh immer ein reines Replica Cluster denn
die Daten müssen ja auf beiden Seiten zwecks HA vorgehalten werden.
Richtiges Failover geht natürlich nur mit entsprechend mehr Hosts oder eben einem Shared Storage in Form von SAN / NAS oder was auch immer. Wobei hier ein SAN natürlich einem NAS vorzuziehen ist.
Ich meine je nach Umgebung reden wir hier ja von Ausfallzeit = fehlendes Geld in der Kasse.
Ich meine ein entsprechendes Storage ist preislich natürlich was anderes als ein Syno Nas oder was auch immer in der Preisklasse Kommt halt auch immer darauf an wie wichtig einem der Sichere Betrieb ist.
Wenn ich jetzt aber mal im Kopf überschlage das ich dann bei einem 2 Node S2D Cluster eben am besten identische Hardware brauche ( inkl Platten / Raidcontroller und und und ) glaube ich jetzt nicht das sich da was tut was den Preis angeht. Vom nutzen mal abgesehen das ich 1 Satz Platten sozusagen "nur" als Replica vorhalte
Wir sind mit unseren 2 S2D Clusteren sehr zufrieden. Ohne Shared Storage versteht sich aber es sind auch 8 + 1 Host mit entsprechendem Netzwerk für SAN und LAN dahinter.
War damals irgendwie billiger als ein System mit Shared Storage wobei der wo das Verkauft hatte hat das für sich resp. Uns schöngerechnet War auf jeden Fall billiger als ein VMWare vSAN - Zum glück haben wir das damals nicht gemacht
Bei zwei Nodes ist es ja technisch gesehen eh immer ein reines Replica Cluster denn
die Daten müssen ja auf beiden Seiten zwecks HA vorgehalten werden.
Richtiges Failover geht natürlich nur mit entsprechend mehr Hosts oder eben einem Shared Storage in Form von SAN / NAS oder was auch immer. Wobei hier ein SAN natürlich einem NAS vorzuziehen ist.
Ich meine je nach Umgebung reden wir hier ja von Ausfallzeit = fehlendes Geld in der Kasse.
Ich meine ein entsprechendes Storage ist preislich natürlich was anderes als ein Syno Nas oder was auch immer in der Preisklasse Kommt halt auch immer darauf an wie wichtig einem der Sichere Betrieb ist.
Wenn ich jetzt aber mal im Kopf überschlage das ich dann bei einem 2 Node S2D Cluster eben am besten identische Hardware brauche ( inkl Platten / Raidcontroller und und und ) glaube ich jetzt nicht das sich da was tut was den Preis angeht. Vom nutzen mal abgesehen das ich 1 Satz Platten sozusagen "nur" als Replica vorhalte
Wir sind mit unseren 2 S2D Clusteren sehr zufrieden. Ohne Shared Storage versteht sich aber es sind auch 8 + 1 Host mit entsprechendem Netzwerk für SAN und LAN dahinter.
War damals irgendwie billiger als ein System mit Shared Storage wobei der wo das Verkauft hatte hat das für sich resp. Uns schöngerechnet War auf jeden Fall billiger als ein VMWare vSAN - Zum glück haben wir das damals nicht gemacht
Hochverfügbarkeit für VMs wird durch Replikation nicht gewährleistet, und im Falle eines Hostausfalls können Daten verloren gehen. Wenn die Entscheidung getroffen wird, Replikation zu verwenden, sollte auch die Backup-Lösung überprüft werden, da diese möglicherweise bessere Replikationsfunktionen als die integrierte Hyper-V-Replica bietet.
Es ist möglich, basierend auf der Beschreibung, einen Failover-Cluster ohne zusätzliche Kosten zu erstellen. Da eine Datacenter-Lizenz vorhanden ist, sollte überprüft werden, ob die Hardware mit S2D kompatibel ist https://learn.microsoft.com/en-us/windows-server/storage/storage-spaces/ ... . Ich teile die bereits hier geäußerte Meinung, dass S2D möglicherweise nicht die beste Wahl für einen Cluster mit 2 Servern ist, aber dennoch eine Option darstellt.
Die zweite hier erwähnte Option ist Starwind VSAN, das eine kostenlose Version bietet und keine spezielle Hardware erfordert - https://www.starwindsoftware.com/resource-library/starwind-virtual-san-c ... . Ein 10Gb-Netzwerk funktioniert gut, solange keine Leistung von mehr als 100k IOPS benötigt wird.
Es ist möglich, basierend auf der Beschreibung, einen Failover-Cluster ohne zusätzliche Kosten zu erstellen. Da eine Datacenter-Lizenz vorhanden ist, sollte überprüft werden, ob die Hardware mit S2D kompatibel ist https://learn.microsoft.com/en-us/windows-server/storage/storage-spaces/ ... . Ich teile die bereits hier geäußerte Meinung, dass S2D möglicherweise nicht die beste Wahl für einen Cluster mit 2 Servern ist, aber dennoch eine Option darstellt.
Die zweite hier erwähnte Option ist Starwind VSAN, das eine kostenlose Version bietet und keine spezielle Hardware erfordert - https://www.starwindsoftware.com/resource-library/starwind-virtual-san-c ... . Ein 10Gb-Netzwerk funktioniert gut, solange keine Leistung von mehr als 100k IOPS benötigt wird.