Fragen zu Hardware bei Windows Server 2022 HCI Cluster mit S2D
Hallo,
als Neuling im Bereich Cluster habe ich ein paar grundlegende Fragen. Vielleicht könnt Ihr mir helfen.
Es geht um den Aufbau eines Failover-Clusters mit Windows Server 2022 (nicht Azure Stack HCI OS) unter Verwendung von Storage Spaces Direct.
1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?
2. Falls ein derartiger Cluster auch mit nicht-zertifizierter Hardware funktioniert: Bekommt man nur bei Einsatz zertifizierter Hardware im Bedarfsfall Support durch Microsoft?
3. Switches: Müssen es RDMA-fähige sein oder taugen auch "normale", bspw. ein 100G-Switch von Mikrotik: https://mikrotik.com/product/crs504_4xq_in ?
4. Kann man Redundanz beim Switch-Betrieb erreichen, indem man in jeden Node zwei 1 Port-100G NICs verbaut und den Node dann mit beiden Switches verbindet?
5. Wenn man mit 3 oder mehr Nodes arbeitet: Wird der Datenbestand dann lediglich auf allen Nodes gespiegelt, so dass die Speicherkapazität des gesamten Clusters derjenigen eines einzelnen Nodes entspricht? Oder besteht die Möglichkeit für ein Setup, bei dem sich die Speicherkapazität der Nodes (teilweise) addiert?
Vielen Dank und schöne Grüße,
tantalos
als Neuling im Bereich Cluster habe ich ein paar grundlegende Fragen. Vielleicht könnt Ihr mir helfen.
Es geht um den Aufbau eines Failover-Clusters mit Windows Server 2022 (nicht Azure Stack HCI OS) unter Verwendung von Storage Spaces Direct.
1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?
2. Falls ein derartiger Cluster auch mit nicht-zertifizierter Hardware funktioniert: Bekommt man nur bei Einsatz zertifizierter Hardware im Bedarfsfall Support durch Microsoft?
3. Switches: Müssen es RDMA-fähige sein oder taugen auch "normale", bspw. ein 100G-Switch von Mikrotik: https://mikrotik.com/product/crs504_4xq_in ?
4. Kann man Redundanz beim Switch-Betrieb erreichen, indem man in jeden Node zwei 1 Port-100G NICs verbaut und den Node dann mit beiden Switches verbindet?
5. Wenn man mit 3 oder mehr Nodes arbeitet: Wird der Datenbestand dann lediglich auf allen Nodes gespiegelt, so dass die Speicherkapazität des gesamten Clusters derjenigen eines einzelnen Nodes entspricht? Oder besteht die Möglichkeit für ein Setup, bei dem sich die Speicherkapazität der Nodes (teilweise) addiert?
Vielen Dank und schöne Grüße,
tantalos
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 6535244296
Url: https://administrator.de/contentid/6535244296
Ausgedruckt am: 24.11.2024 um 08:11 Uhr
6 Kommentare
Neuester Kommentar
Moin,
P.S.: "Sparcluster" sind selten gut.
VG,
Thomas
Zitat von @tantalos:
1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?
Was von Microsoft unterstützt wird steht wie meistens in den Hardwarevoraussetzungen, der Hardwarekatalog ist sehr umfangreich.1. Funktioniert so ein Cluster nur mit Server-Hardware, die von Microsoft zertifiziert ist oder braucht es nur bei Azure Stack HCI zertifizierte Hardware?
2. Falls ein derartiger Cluster auch mit nicht-zertifizierter Hardware funktioniert: Bekommt man nur bei Einsatz zertifizierter Hardware im Bedarfsfall Support durch Microsoft?
Was verstehst du denn unter nicht zertifizierter Hardware?3. Switches: Müssen es RDMA-fähige sein oder taugen auch "normale", bspw. ein 100G-Switch von Mikrotik: https://mikrotik.com/product/crs504_4xq_in ?
Müssen nein, unter Umständen empfohlen ja, aber auch das steht in den Requierements und hängt von deiner Clustergröße ab.4. Kann man Redundanz beim Switch-Betrieb erreichen, indem man in jeden Node zwei 1 Port-100G NICs verbaut und den Node dann mit beiden Switches verbindet?
Ja, kann man.5. Wenn man mit 3 oder mehr Nodes arbeitet: Wird der Datenbestand dann lediglich auf allen Nodes gespiegelt, so dass die Speicherkapazität des gesamten Clusters derjenigen eines einzelnen Nodes entspricht? Oder besteht die Möglichkeit für ein Setup, bei dem sich die Speicherkapazität der Nodes (teilweise) addiert?
Auch hier wird dir in der Doku geholfen.P.S.: "Sparcluster" sind selten gut.
VG,
Thomas
1. Wie stellst Du dir guten Support vor
2. Nein. Durch den OEM oder Händler.
3. Sollten dringend wenigstens RDMA "können". MT ist keine gute Idee.
4. Ja. Das wird auch gar nicht so selten gemacht. Jedoch meist Dual Port.
5. Wenn das deine Sorge ist, dann ist vielleicht das Konzept nicht optimal.
2. Nein. Durch den OEM oder Händler.
3. Sollten dringend wenigstens RDMA "können". MT ist keine gute Idee.
4. Ja. Das wird auch gar nicht so selten gemacht. Jedoch meist Dual Port.
5. Wenn das deine Sorge ist, dann ist vielleicht das Konzept nicht optimal.
Zitat von @tantalos:
Ist also davon ausgehen, dass man auch bei einem Cluster mit nur 3 Nodes in praxi einen deutlichen Performanceunterschied zwischen RDMA-fähigen Switches und solchen ohne RDMA feststellen kann?
Ist also davon ausgehen, dass man auch bei einem Cluster mit nur 3 Nodes in praxi einen deutlichen Performanceunterschied zwischen RDMA-fähigen Switches und solchen ohne RDMA feststellen kann?
Vor allem wirst du ohne RDMA bei einem ausgelasteten 100G Link viele deiner CPU Cores alleine mit dem Netzwerkverkehr beschäftigen.
/Thomas
Die CNAs müssen das können. Die Switches wissen nichts davon , was die CNAs können, im engeren Sinne. Deine CNAs werden aber bestimmte Sachen brauchen, dass es läuft. DCB, Flow-Geraffel usw...
Wenn deine Switches den Anforderungen nicht genügen, dann werden sie zur Bremse bzwrs knallt in Form von Bluescreens.
Was willst du denn genau machen? RoCE? iSER?
Grundsätzlich ist dein Gedanke völlig falsch, weil du von Anfang an eine nicht supportete Umgebung baust.
Nichts gegen MT, aber du benötigst richtige Switches.
Wenn deine Switches den Anforderungen nicht genügen, dann werden sie zur Bremse bzwrs knallt in Form von Bluescreens.
Was willst du denn genau machen? RoCE? iSER?
Grundsätzlich ist dein Gedanke völlig falsch, weil du von Anfang an eine nicht supportete Umgebung baust.
Nichts gegen MT, aber du benötigst richtige Switches.