Server 2025 HCI S2D Cluster mit aktuellen AMD Epyc?
Hallo zusammen,
wir sind gerade dabei über unseren Lieferanten einen neuen 2-Knoten Cluster zusammen stellen zu lassen, welche räumlich getrennt stehen werden, mit rund 160m OM4 LWL dazwischen. Dabei hatten wir auch ein paar wünsche geäußert wie 2x AMD Epyc 9375F CPUs je Knoten, 1TB Ram, 30TB (Netto!) U.2/3 SSDs, Mellanox ConnectX-6 Karten 25G SFP28
Scheinbar bietet soetwas aber auch nicht jeder Hersteller an, da die Hardware wohl zertifiziert sein muss damit ein S2D Cluster überhaupt erst eingerichtet werden kann? Gibt wohl nur ältere Epyc Systeme, oder halt Intel - was wir aber nicht wollen weil ineffizienter und weniger Performance.
Es sollen zukünftig um die 30-40VMs darauf laufen. OS wird MS Server 2025 Datacenter, ohne Azure, also alles klassisch OnPrem.
Wir hatten auch schon die Überlegung, das ganze selber zusammen zu bauen wenn es keiner der großen Hersteller hinbekommt - dann sind wir Servicetechnisch natürlich auf uns alleine gestellt.
Wie schaut es aus mit der Einrichtung? würde eine S2D einrichten dennoch funktionieren und nicht nicht supported werden falls doch mal ein so hartnäckiger Fehler auftreten sollte, dass wir den MS Support direkt kontaktieren müssten?
Und noch eine frage am rande: Wie würdet ihr die Festplatten-Redundanz über den S2D einrichten? gibt ja verschiedene Spiegelungsarten....
wir sind gerade dabei über unseren Lieferanten einen neuen 2-Knoten Cluster zusammen stellen zu lassen, welche räumlich getrennt stehen werden, mit rund 160m OM4 LWL dazwischen. Dabei hatten wir auch ein paar wünsche geäußert wie 2x AMD Epyc 9375F CPUs je Knoten, 1TB Ram, 30TB (Netto!) U.2/3 SSDs, Mellanox ConnectX-6 Karten 25G SFP28
Scheinbar bietet soetwas aber auch nicht jeder Hersteller an, da die Hardware wohl zertifiziert sein muss damit ein S2D Cluster überhaupt erst eingerichtet werden kann? Gibt wohl nur ältere Epyc Systeme, oder halt Intel - was wir aber nicht wollen weil ineffizienter und weniger Performance.
Es sollen zukünftig um die 30-40VMs darauf laufen. OS wird MS Server 2025 Datacenter, ohne Azure, also alles klassisch OnPrem.
Wir hatten auch schon die Überlegung, das ganze selber zusammen zu bauen wenn es keiner der großen Hersteller hinbekommt - dann sind wir Servicetechnisch natürlich auf uns alleine gestellt.
Wie schaut es aus mit der Einrichtung? würde eine S2D einrichten dennoch funktionieren und nicht nicht supported werden falls doch mal ein so hartnäckiger Fehler auftreten sollte, dass wir den MS Support direkt kontaktieren müssten?
Und noch eine frage am rande: Wie würdet ihr die Festplatten-Redundanz über den S2D einrichten? gibt ja verschiedene Spiegelungsarten....
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 672658
Url: https://administrator.de/forum/server-2025-hci-s2d-cluster-mit-aktuellen-amd-epyc-672658.html
Ausgedruckt am: 30.04.2025 um 01:04 Uhr
15 Kommentare
Neuester Kommentar
Starwind vSAN macht im Grunde ähnliches wie S2D, Storage ist in jedem Server und darüber wird dann ein virtuelles RAID gebildet das per iSCSI dem Hyper-V Cluster zur verfügung gestellt wird. Funktioniert zumindest in der 2 Node variante deutlich zuverlässiger und schneller als S2D, kostet zwar extra, dafür ist deren Support aber echt auf Zack.
andere möglichkeit wäre wie @Geomatrix schon gesagt hat, klassisch nen Blockstorage zu verwenden und das per iscsi oder fc an beide Nodes anzubinden, in deinem fall wohl eher iscsi. Synology wäre da eher nicht erste Wahl sondern sowas wie Dell ME5024 oder HP MSA 2060, gibts natürlich in beliebig teuer...
andere möglichkeit wäre wie @Geomatrix schon gesagt hat, klassisch nen Blockstorage zu verwenden und das per iscsi oder fc an beide Nodes anzubinden, in deinem fall wohl eher iscsi. Synology wäre da eher nicht erste Wahl sondern sowas wie Dell ME5024 oder HP MSA 2060, gibts natürlich in beliebig teuer...
Zitat von @Assassin:
Aktuell verwendet unserer Cluster das DataCore SANsymphony, da wird das Storage auch via iSCSI hochgegeben...wir empfinden diese art aber als recht unperformant, vor allem wenn mehrere VMs viel IOPS erzeugen. Trotz mehrere Enterprise SSDs pro Knoten.
Ich vermute da, dass es am iSCSI liegt, welches zuviel CPU overhead verursacht.
liegt vermutlich eher an SANsymphonyAktuell verwendet unserer Cluster das DataCore SANsymphony, da wird das Storage auch via iSCSI hochgegeben...wir empfinden diese art aber als recht unperformant, vor allem wenn mehrere VMs viel IOPS erzeugen. Trotz mehrere Enterprise SSDs pro Knoten.
Ich vermute da, dass es am iSCSI liegt, welches zuviel CPU overhead verursacht.
Daher die Idee mit nativen Boardmitteln wie eben S2D zu arbeiten...das gibts ja auch nicht erst seit gestern, das sollte doch - gerade im Server 2025 schon gut ausgereift sein, oder doch nicht?
Das ist einfach nicht auf zwei Knoten ausgelegt, auch wenn es theoretisch funktioniert, wenn da zb der Storage gesynct werden muss geht erstmal gar nichts mehr. Perfomance mit mirrored spaces ist ok mit parity immer noch unterirdisch.
@kreuzberger
Du bist ein Witzbold
Was ist denn ein AMD Epcy? - Ach Du meint AMD Epyc!
Es gibt einen Bearbeitungsbutton um auch das Beitragsthema zu korrigieren.
Gruss Penny.
Du bist ein Witzbold
Was ist denn ein AMD Epcy? - Ach Du meint AMD Epyc!
Es gibt einen Bearbeitungsbutton um auch das Beitragsthema zu korrigieren.
Gruss Penny.
Moin,
Wir nutzen auch (nach wie vor) klassische SANs
Frage dich bei zwei Servern/ Knoten immer, wie du ein SplitBrain verhindern kannst. Bringt ja nichts, wenn du ein HA (egal ob per S2D oder SAN) etabliertst, allerdings ein großes Problem bekommst, wenn die Strecke zwischen den Systemen gekappt wird und jede Seite (die ja weiterhin intakt ist) meint, sie wäre der Master. Die Daten bekommst du irgendwann nicht mehr zusammen.
Wir haben dafür an einem dritten Standort ein Quorum etabliert. Wer von den SAN-HA-Knoten das Quorum „als erstes“ erreicht, hat die Hoheit über die Daten. Bei den erneuerungen der Hardware sowie bei turnusmäßigen Updates wird genau dies immer mit getestet - auch das Wiederanlaufen.
Wir nutzen auch (nach wie vor) klassische SANs
Frage dich bei zwei Servern/ Knoten immer, wie du ein SplitBrain verhindern kannst. Bringt ja nichts, wenn du ein HA (egal ob per S2D oder SAN) etabliertst, allerdings ein großes Problem bekommst, wenn die Strecke zwischen den Systemen gekappt wird und jede Seite (die ja weiterhin intakt ist) meint, sie wäre der Master. Die Daten bekommst du irgendwann nicht mehr zusammen.
Wir haben dafür an einem dritten Standort ein Quorum etabliert. Wer von den SAN-HA-Knoten das Quorum „als erstes“ erreicht, hat die Hoheit über die Daten. Bei den erneuerungen der Hardware sowie bei turnusmäßigen Updates wird genau dies immer mit getestet - auch das Wiederanlaufen.
Zitat von @Assassin:
Ja, einen quorum PC haben wir auch an einem 3.standort für unsere Stratus EverRun FT Maschinen... Sowas wird's doch bestimmt auch für S2D HCI Cluster geben.
Ja, einen quorum PC haben wir auch an einem 3.standort für unsere Stratus EverRun FT Maschinen... Sowas wird's doch bestimmt auch für S2D HCI Cluster geben.
In stretched S2D Clustern nutzt man in der Regel ne Fileshare Witness an einem dritten Standort, das kann prinzipiell jedes beliebige Windows Fileshare sein. Alternativ kann man bei vorhandem Internetzugriff ne Azure Witness nutzen, das ist einfach nur ein kleiner BLOB Store in der Cloud. Die Herausforderung bei der Fileshare Witness ist das man das Netzwerk so designen muß das der Zugriff aufs Fileshare aus jedem Standort unabhängig vom anderen erfolgen muß.
Die Hardware für S2D muß nur im Windows Hardware Katalog aufgeführt sein, idealerweise als SDDC Premium zertifiziert. Das ganze System muß nicht zertifiziert sein, ist ja kein Azure Local Cluster. Für den Support durch Microsoft ist hier am Ende des Tages nur wichtig das der Cluster den Cluster Validation Test ohne Fehler besteht.
https://learn.microsoft.com/en-us/windows-server/storage/storage-spaces/ ...
https://www.windowsservercatalog.com/hardware
/Thomas