assassin

Server 2025 HCI S2D Cluster mit aktuellen AMD Epyc?

Hallo zusammen,
wir sind gerade dabei über unseren Lieferanten einen neuen 2-Knoten Cluster zusammen stellen zu lassen, welche räumlich getrennt stehen werden, mit rund 160m OM4 LWL dazwischen. Dabei hatten wir auch ein paar wünsche geäußert wie 2x AMD Epyc 9375F CPUs je Knoten, 1TB Ram, 30TB (Netto!) U.2/3 SSDs, Mellanox ConnectX-6 Karten 25G SFP28

Scheinbar bietet soetwas aber auch nicht jeder Hersteller an, da die Hardware wohl zertifiziert sein muss damit ein S2D Cluster überhaupt erst eingerichtet werden kann? Gibt wohl nur ältere Epyc Systeme, oder halt Intel - was wir aber nicht wollen weil ineffizienter und weniger Performance.

Es sollen zukünftig um die 30-40VMs darauf laufen. OS wird MS Server 2025 Datacenter, ohne Azure, also alles klassisch OnPrem.

Wir hatten auch schon die Überlegung, das ganze selber zusammen zu bauen wenn es keiner der großen Hersteller hinbekommt - dann sind wir Servicetechnisch natürlich auf uns alleine gestellt.

Wie schaut es aus mit der Einrichtung? würde eine S2D einrichten dennoch funktionieren und nicht nicht supported werden falls doch mal ein so hartnäckiger Fehler auftreten sollte, dass wir den MS Support direkt kontaktieren müssten?

Und noch eine frage am rande: Wie würdet ihr die Festplatten-Redundanz über den S2D einrichten? gibt ja verschiedene Spiegelungsarten....
Auf Facebook teilen
Auf X (Twitter) teilen
Auf Reddit teilen
Auf Linkedin teilen

Content-ID: 672658

Url: https://administrator.de/forum/server-2025-hci-s2d-cluster-mit-aktuellen-amd-epyc-672658.html

Ausgedruckt am: 30.04.2025 um 01:04 Uhr

pebcak7123
pebcak7123 29.04.2025 um 14:13:21 Uhr
Goto Top
Moin,
zu S2D, würde ich dringend von abraten bei nur 2 nodes. Das läuft und lief noch nie wirklich zuverlässig, zusätzlich wie du schon bemerkt hast diese schwachsinnigen Anforderungen bezüglich zertifizierung. Alternative ist stattdessen zB Starwind vSAN zu nutzen.
Geomatrix
Geomatrix 29.04.2025 um 14:31:26 Uhr
Goto Top
Macht lieber nicht so ein Fancy S2D Cluster, es funktioniert zwar aber hat halt doch viele Dinge die beachtet werden müssen.
Wie wäre es mit einer ganz normalen Virtualisierungs Umgebung Storage System + Compute Units + Virtualisierungsplattform.
Assassin
Assassin 29.04.2025 um 14:50:19 Uhr
Goto Top
Meint ihr sowas wie zwei dicke Synology's welche sich gegenseitig replizieren und das Storage über FC an die Server bereitstellen, und eben zwei Server mit reichlich RAM und CPU für das HyperV?
pebcak7123
pebcak7123 29.04.2025 um 14:56:24 Uhr
Goto Top
Starwind vSAN macht im Grunde ähnliches wie S2D, Storage ist in jedem Server und darüber wird dann ein virtuelles RAID gebildet das per iSCSI dem Hyper-V Cluster zur verfügung gestellt wird. Funktioniert zumindest in der 2 Node variante deutlich zuverlässiger und schneller als S2D, kostet zwar extra, dafür ist deren Support aber echt auf Zack.

andere möglichkeit wäre wie @Geomatrix schon gesagt hat, klassisch nen Blockstorage zu verwenden und das per iscsi oder fc an beide Nodes anzubinden, in deinem fall wohl eher iscsi. Synology wäre da eher nicht erste Wahl sondern sowas wie Dell ME5024 oder HP MSA 2060, gibts natürlich in beliebig teuer...
Assassin
Assassin 29.04.2025 um 15:05:04 Uhr
Goto Top
Aktuell verwendet unserer Cluster das DataCore SANsymphony, da wird das Storage auch via iSCSI hochgegeben...wir empfinden diese art aber als recht unperformant, vor allem wenn mehrere VMs viel IOPS erzeugen. Trotz mehrere Enterprise SSDs pro Knoten.
Ich vermute da, dass es am iSCSI liegt, welches zuviel CPU overhead verursacht.

Daher die Idee mit nativen Boardmitteln wie eben S2D zu arbeiten...das gibts ja auch nicht erst seit gestern, das sollte doch - gerade im Server 2025 schon gut ausgereift sein, oder doch nicht?
pebcak7123
pebcak7123 29.04.2025 aktualisiert um 15:25:04 Uhr
Goto Top
Zitat von @Assassin:

Aktuell verwendet unserer Cluster das DataCore SANsymphony, da wird das Storage auch via iSCSI hochgegeben...wir empfinden diese art aber als recht unperformant, vor allem wenn mehrere VMs viel IOPS erzeugen. Trotz mehrere Enterprise SSDs pro Knoten.
Ich vermute da, dass es am iSCSI liegt, welches zuviel CPU overhead verursacht.
liegt vermutlich eher an SANsymphony
Daher die Idee mit nativen Boardmitteln wie eben S2D zu arbeiten...das gibts ja auch nicht erst seit gestern, das sollte doch - gerade im Server 2025 schon gut ausgereift sein, oder doch nicht?
Das ist einfach nicht auf zwei Knoten ausgelegt, auch wenn es theoretisch funktioniert, wenn da zb der Storage gesynct werden muss geht erstmal gar nichts mehr. Perfomance mit mirrored spaces ist ok mit parity immer noch unterirdisch.
NordicMike
NordicMike 29.04.2025 um 15:38:05 Uhr
Goto Top
Also wegen 30-40 VMs musst du nicht das letzte halbe % an Performance raus holen. Unsere Intel Gold's horten 60-70 VMs und langweilen sich. Der Flaschenhals ist immer zu wenig RAM, wenn es sich um normale Firmen handelt und keine Multimedia Buden sind, wie Pixar face-smile
Penny.Cilin
Penny.Cilin 29.04.2025 um 16:02:59 Uhr
Goto Top
@kreuzberger
Du bist ein Witzbold face-wink

Was ist denn ein AMD Epcy? - Ach Du meint AMD Epyc!
Es gibt einen Bearbeitungsbutton um auch das Beitragsthema zu korrigieren. face-wink

Gruss Penny.
ukulele-7
ukulele-7 29.04.2025 um 16:50:17 Uhr
Goto Top
Zitat von @Penny.Cilin:

Ach Du meint AMD Epyc!
Du meinst vermutlich mein(s)t.

Gruss ukulele.
Penny.Cilin
Penny.Cilin 29.04.2025 um 17:05:26 Uhr
Goto Top
Zitat von @ukulele-7:

Zitat von @Penny.Cilin:

Ach Du meint AMD Epyc!
Du meinst vermutlich mein(s)t.

Gruss ukulele.

Genau face-wink
Assassin
Assassin 29.04.2025 um 17:28:09 Uhr
Goto Top
Schon korrigiert ;)

Gibt's keine hier, die bereits einen 2025er S2D einsetzen?
em-pie
em-pie 29.04.2025 um 18:57:20 Uhr
Goto Top
Moin,

Wir nutzen auch (nach wie vor) klassische SANs face-smile

Frage dich bei zwei Servern/ Knoten immer, wie du ein SplitBrain verhindern kannst. Bringt ja nichts, wenn du ein HA (egal ob per S2D oder SAN) etabliertst, allerdings ein großes Problem bekommst, wenn die Strecke zwischen den Systemen gekappt wird und jede Seite (die ja weiterhin intakt ist) meint, sie wäre der Master. Die Daten bekommst du irgendwann nicht mehr zusammen.

Wir haben dafür an einem dritten Standort ein Quorum etabliert. Wer von den SAN-HA-Knoten das Quorum „als erstes“ erreicht, hat die Hoheit über die Daten. Bei den erneuerungen der Hardware sowie bei turnusmäßigen Updates wird genau dies immer mit getestet - auch das Wiederanlaufen.
Assassin
Assassin 29.04.2025 um 19:06:29 Uhr
Goto Top
Ja, einen quorum PC haben wir auch an einem 3.standort für unsere Stratus EverRun FT Maschinen... Sowas wird's doch bestimmt auch für S2D HCI Cluster geben.
Das SanSymphony macht das unter sich aus, es gibt ja eine redundante direkt LWL P2P verbindung.
Th0mKa
Th0mKa 29.04.2025 aktualisiert um 22:07:09 Uhr
Goto Top
Zitat von @Assassin:

Ja, einen quorum PC haben wir auch an einem 3.standort für unsere Stratus EverRun FT Maschinen... Sowas wird's doch bestimmt auch für S2D HCI Cluster geben.

In stretched S2D Clustern nutzt man in der Regel ne Fileshare Witness an einem dritten Standort, das kann prinzipiell jedes beliebige Windows Fileshare sein. Alternativ kann man bei vorhandem Internetzugriff ne Azure Witness nutzen, das ist einfach nur ein kleiner BLOB Store in der Cloud. Die Herausforderung bei der Fileshare Witness ist das man das Netzwerk so designen muß das der Zugriff aufs Fileshare aus jedem Standort unabhängig vom anderen erfolgen muß.

Die Hardware für S2D muß nur im Windows Hardware Katalog aufgeführt sein, idealerweise als SDDC Premium zertifiziert. Das ganze System muß nicht zertifiziert sein, ist ja kein Azure Local Cluster. Für den Support durch Microsoft ist hier am Ende des Tages nur wichtig das der Cluster den Cluster Validation Test ohne Fehler besteht.

https://learn.microsoft.com/en-us/windows-server/storage/storage-spaces/ ...
https://www.windowsservercatalog.com/hardware

/Thomas
Assassin
Assassin 29.04.2025 aktualisiert um 22:28:55 Uhr
Goto Top
Ok, wenn ich das richtig sehe gibt es in dem Server Hardware catalog keine einzelnen CPUs wo man schauen kann, ob diese zertifiziert sind. Es scheint aber nicht eine Netzwerk karte zu geben, die sddc Premium Server 2025 zertifiziert ist, schon etwas arg eigenartig.

Das mit dem quorum ist auch klar, dass beide Knoten den erreichen müssen - ist bei uns auch gegeben.