user217
Goto Top

Kaufberatung Hardware - Hyper-V Cluster 3 Nodes

Hallo zusammen,

Eckdaten:
3 Nodes mit je 2 CPU (8-16C>3,2ghz), NVME (4x16TB) Speicher für S2D, 6x128GBRAM und 3 x 2 100G DAC NIC. (Server2025DC-Core)

Welche preiswerte Hardware kriegt das alles unter und läuft stabil mit nextworkday sla?

Alternativen dazu sind gerne willkommen..

Danke für eure Anregungen!

Content-ID: 669582

Url: https://administrator.de/contentid/669582

Printed on: December 5, 2024 at 16:12 o'clock

pebcak7123
pebcak7123 Nov 18, 2024 at 14:24:05 (UTC)
Goto Top
Moin,
warum 2* CPU bei 16C ? Vermutlich Intel ? Würd da eher auf Epyc setzen, günstiger und schneller. Nur 6 Ram Module bei 2 CPUS wäre auch Unsinn, bei intel will man 8 pro CPU und bei Epyc 12 pro CPU um alle Speicherkanäle zu nutzen.
Aber das ist eh alles Standard-Hardware, kann dir jeder der grossen ( Dell, HPe, ) hinstellen, günstiger wirds mit Supermicro Serverhardware, dann brauchst du halt nen Händler / Drittfirma die dir die gewünschte SLA dazu anbietet, zB Thomas-Krenn
ukulele-7
ukulele-7 Nov 18, 2024 updated at 14:31:02 (UTC)
Goto Top
Naja wie wäre eine der üblichen Hersteller (HPE, Fujitsu, Dell) vom Systemhaus deines Vertrauens? Die können da auch einen Preis dran machen, ein nicht Händler kann das leider nicht.

Eigenbau halte ich für grenzwertig und SLA gibt's da auch nicht. Wenn ihr bereits einen Serverbauer im Einsatz habt und vielleicht auch dort schon SLAs nutzt dann wäre das sicherlich ein Referenz-Angebot und die anderen könnte man sich vergleichbar ausarbeiten lassen. Preiswert ist immer relativ, aber die Angebote gibt es leider nicht bei Geizhals zum zusammen klicken...

Epyc 9135
https://de.wikipedia.org/wiki/AMD_Epyc#F%C3%BCnfte_Generation
https://www.hpe.com/psnow/doc/PSN1014849428CHDE

[Edit] Natürlich spricht nichts gegen Krenn etc. aber zu SLA kann ich da nichts sagen.

Zu S2D habe ich keine Meinung. Sind da die Kosten ausschlaggebend oder warum ist eine SAN nicht interessant?
user217
user217 Nov 18, 2024 at 14:59:00 (UTC)
Goto Top
Ich sehe z.B. bei HPE GEN11 max 2U ein Platzproblem für 4 x100g + RaidController für nvme (falls es den dafür überhaupt noch gibt)
Danke @pebcak, 8 Riegel pro cpu. Merk ich mir, macht sinn und die "nur" 2*8C (hochfrequent) ist eine Lizenzpreisefrage.. du verstehst? deshalb wird ein Epyc am Ende sauteuer.
pebcak7123
pebcak7123 Nov 18, 2024 at 15:10:05 (UTC)
Goto Top
Nein versteh ich überhaupt nicht, von was für ner Lizenz reden wir hier die für 2*8 Core billiger sein soll als für 1*16 core ?
user217
user217 Nov 19, 2024 at 08:09:30 (UTC)
Goto Top
ora..cle wir auf cores berechnet und ist nicht billig
Geomatrix
Geomatrix Nov 19, 2024 at 08:11:47 (UTC)
Goto Top
5 Jahre Service NBD bietet die alle an.
ukulele-7
ukulele-7 Nov 19, 2024 at 08:32:27 (UTC)
Goto Top
Ja Oracle ist böse.

Bei Epyc gibt es die F-Modelle, die haben eigentlich die beste Single Thread Performance und takten am höchsten, wir haben hier auch welche. Allerdings muss man sich da ein wenig umschauen, die sind auch deutlich teurer. Allerdings ist der Preis nicht zwingend linear, war bei unserem HPE auch nicht so.

Du solltest dir ein Referenzangebot machen lassen, das fragst du beim Lieferanten/Systemhaus an und die fragen das bei z.B. HPE als Projektpreis an. Dann fragst du das mit anderen CPUs nochmal als Projektpreis an. Alles beim selben Lieferanten/Systemhaus, HPE& Co. würde anderen Lieferanten dann nämlich kein Angebot mehr unterbreiten. Man muss da aufpassen das man nicht über die Webseite ein Angebot anfordert, damit wird man quasi auch einem Händler zugeiwesen und der reklamiert dann das Projekt vielleicht für sich.

Ist alles ziemlich beknackt aber ist so.

Dann kannst du noch weitere Lieferanten / Hersteller anfragen mit gleicher Konfiguration wenn dir der Preis nicht zusagt.
Geomatrix
Geomatrix Nov 19, 2024 at 09:39:21 (UTC)
Goto Top
Also in der Regel nimmt da ein Vertriebler vom Hersteller dann mit dir Kontakt auf und möchte wissen, wer den jetzt den Projekt Preis bekommen soll.
Am besten fährt man wenn man dann sagt jeder oder keiner.
ThePinky777
ThePinky777 Nov 19, 2024 updated at 14:51:16 (UTC)
Goto Top
kontaktier doch einfach mehrere systemhäuser erklär dein wunsch und hole angebote ein.
Auch direkt HP oder DELL.
fertig.

Marken würde ich nur DELL oder HP nehmen.

Alle anderen sind zwar günstiger vielleicht aber nein danke...

dann gleich im angebot maximale wartungs mit rein nehmen und das ganze als Leasing.
Damit splitest du die Infrastruktur kosten exakt gleichmässig auf und wenn das ganze ausläuft holste einfach neue hardware und die kosten laufen Pi mal Daumen im gleichen rahmen weiter.... so das
auch in der geschäftsführung keiner mehr nen herzkasper bekommt wenn du wieder 50k-100k investieren willst (je nachdem was dein zeug so kostet)
Geomatrix
Geomatrix Nov 19, 2024 at 15:07:12 (UTC)
Goto Top
Zitat von @ThePinky777:
Alle anderen sind zwar günstiger vielleicht aber nein danke...


Schon mal 19" Hardware von Cisco angefragt? 🤣🤣🤣
ukulele-7
ukulele-7 Nov 19, 2024 at 15:35:43 (UTC)
Goto Top
Zitat von @Geomatrix:

Zitat von @ThePinky777:
Alle anderen sind zwar günstiger vielleicht aber nein danke...


Schon mal 19" Hardware von Cisco angefragt? 🤣🤣🤣

Kommt immer darauf an. Wenn die Wartung durch den Hersteller erfolgt (wie bei HPE, Cisco, etc.) dann ist es i.d.R. egal, wo du kaufst. Dann kriegst du bei dem einen vielleicht Projektpreise, beim anderen aber einfach Schnäppchen. Dem Hersteller ist es auch (aus meiner Erfahrung) egal, wo die Hardware herkommt. Wenn ich bei E-Bay eine Festplatte kaufe die auf der Spare Part List meines Servers steht und in einen Server mit Wartung stecke, dann hat auch die Platte Wartung. Wenn die dann eine Woche später rot leuchtet ist das ein Tausch über die Wartung.

Leasing oder nicht sollte die GF entscheiden. Einige nehmen die Anschaffungskosten gerne vorweg, einige machen gerne noch ne Rückstellung. Nicht jeder bietet Leasing an, der Anbieter soll einfach beide Preise dran schreiben.
ThePinky777
ThePinky777 Nov 19, 2024 at 18:28:20 (UTC)
Goto Top
mit wartung haste halt den vorteil das de im notfall nicht dumm da stehst... muss jeder selbst wissen.
hatte mal den falls das strom am wochenende 3 mal ausviel.
USV leer gelaufen und Storage aus.
3 mal passiert.
waren dann 4 Platten im Raid 10 defekt und storage schaltet auf notbetrieb, war nicht der raid kaputt man konnte nur nicht mehr drauf arbeiten >> war hersteller support schon was feines wenn du da sofort nen system engineer dran hast der den vollen durchblick hat und dir genau sagt was sache ist... und mit 4h hardware ersatz, also austausch platte war das ding schnell durch...
muss jeder selbst wissen was er macht und wieviel er ausgeben will.

Supermicro, wenn du da einmal mist mitmachen musstest dann kaufste dir das nie wieder...
blöd wenn da wirklich wichtige systeme drauf laufen...
pebcak7123
pebcak7123 Nov 20, 2024 at 07:17:35 (UTC)
Goto Top
Es gibt genügend Händler die auch Supermicro als White-Label mit belastbaren SLAs anbieten,
bei diesem speziellen Fall würd ich zB. mal bei Starwind anfragen, deren VSAN Lösung, ist meiner meinung nach, auch S2D haushoch überlegen bei 3 Nodes.
ukulele-7
ukulele-7 Nov 20, 2024 at 07:39:45 (UTC)
Goto Top
So ein Hypervisor ist im Prinzip leicht austauschbar, da fahre ich eine Strategie ohne Wartung. Aber ich habe auch keinen Storage da drin, den habe ich im SAN und da habe ich natürlich sowohl Wartung als auch Redundanz. Ich kann S2D nicht einschätzen, die Gleichung ist aber dann natürlich anders.
user217
user217 Nov 20, 2024 at 08:05:35 (UTC)
Goto Top
Hat den jemand eine konkrete HPE Hardwareempfehlung welche 4 NIC's (2x100G) unterbringt?
Ich finde bei GEN11 Produkten nur 2 HE, denke das wird knapp..
pebcak7123
pebcak7123 Nov 20, 2024 at 08:26:49 (UTC)
Goto Top
Wo soll da das Problem sein bei den 2 HE Servern ? Sekundären Pcie-Riser rein und 4 PCie Karten sind kein Problem
ukulele-7
ukulele-7 Nov 20, 2024 at 08:28:45 (UTC)
Goto Top
Also in einem Standard-DL380/DL385 mit 2 HE und einem Secondary Riser gibt es sechs PCIe 5.0-Slots. Dazu kommen noch zwei OCP 3.0 Slots.
https://www.hpe.com/psnow/doc/a50004300enw.pdf?jumpid=in_pdp-psnow-qs

Auch für OCP scheint es 100G (Intel) zu geben:
HPE E810-CQDA2 Dual Port 100G QSFP28 Ethernet Server Netzwerkkarte / OCP 3.0 Adapter - P24113-001 / P22767-B21
pebcak7123
pebcak7123 Nov 20, 2024 at 08:51:18 (UTC)
Goto Top
Wobei ich, wegen deiner anscheinend nicht mal rudimentären Expertise bezüglich Serversystem, mal in Frage stellen würde das deine Hardwarekonfiguration überhaupt irgend einen Sinn ergibt. Wozu sollen die Dinger den 8 (!) 100gbit Links haben? Denke da wirst du je nachdem was da so drauf laufen soll auch Probleme mit dem niedrigen Core-Count bekommen.
Bin jetzt auch nicht super fit in Oracle Lizensierung (das ist wohl außer Oracle niemand ), aber das da dual-cpu bei gleichem core-count billiger sein soll halte ich für unsinn.
ukulele-7
ukulele-7 Nov 20, 2024 at 09:13:17 (UTC)
Goto Top
Vermutlich jeweils 2x 100G zu jedem anderen Host (4), 2x 100G zum Core-Switch (2) und 2x 100G zum Backup-System oder einem weiteren Core-Switch (=8). Halte ich auch für total übertrieben. Dann müssten das schon drei Hosts nur für Oracle sein und da noch 50+ weitere Server stehen. In dem Fall hätte man aber vielleicht etwas mehr Erfahrung bei der Hardware oder irgendwelche Hoflieferanten, die man angefragt hätte.
MysticFoxDE
MysticFoxDE Nov 20, 2024 at 09:16:00 (UTC)
Goto Top
Moin @user217,

Eckdaten:
3 Nodes mit je 2 CPU (8-16C>3,2ghz), NVME (4x16TB) Speicher für S2D, 6x128GBRAM und 3 x 2 100G DAC NIC. (Server2025DC-Core)

Alternativen dazu sind gerne willkommen..

und wie währe es mit nur zwei NV-Nodes und ein anständiges SAN, was Lizenzkostentechnisch auf jeden Fall optimaler wäre und auch performancetechnisch. 😉

Und was den SLA angeht, so wie ich das sehe, haben die Meisten hier wohl noch gar nicht mitbekommen, dass egal ab meinen einen SLA bei DELL, HPE, Lenovo & Co kauft, man am Ende des Tages wahrscheinlich eh entweder von derselben Hotline oder Techniker abgefertigt wird. 🙃

Denn so gut wie keiner der bisher genannten A-Brands, macht seinen Service heutzutage wirklich noch selber. 😔

Wir haben z.B. das letzte System mit Gigabyte-Servern und NBD-SLA ausgeliefert. Der Kunde hätte auch einen besseren SLA haben können, da das System jedoch HA ist, sah er einen besseren als nicht notwendig an.
Na ja, auf was ich am Ende jedoch hinaus wollte ist, wenn dieser Kunde ein Problem mit seinem System hat, dann kommt wahrscheinlich derselbe Techniker, wie wenn er sich die Server bei den zuvor genannten gekauft hat, mit nur einem Unterschied, der SLA war in dem Fall nur etwas günstiger. 😁

Wenn du Interesse an so einer Alternative hast, dann kann ich dir später gerne meine Kontaktdaten per PN zuschicken.

Gruss Alex
MysticFoxDE
MysticFoxDE Nov 20, 2024 at 09:26:54 (UTC)
Goto Top
Moin @pebcak7123,

warum 2* CPU bei 16C ?

damit er bei dem entsprechenden Model, alle PCIe-Slots des Servers verwenden kann.

Vermutlich Intel ?

Ist auch bei >= 2 Socket Systemen mit AMD CPU's nicht wirklich anders.

Würd da eher auf Epyc setzen, günstiger und schneller.

Das stimmt bei bestimmten CPU-Kategorien, vor allem den hochgetakteten, so nicht wirklich.

Nur 6 Ram Module bei 2 CPUS wäre auch Unsinn, bei intel will man 8 pro CPU und bei Epyc 12 pro CPU um alle Speicherkanäle zu nutzen.

👍👍👍 und das sollte man auch einhalten, wenn man von der entsprechenden CPU und zwar egal ob AMD oder Intel, die volle Leistung haben möchte.

Aber das ist eh alles Standard-Hardware, kann dir jeder der grossen ( Dell, HPe, ) hinstellen, günstiger wirds mit Supermicro Serverhardware, dann brauchst du halt nen Händler / Drittfirma die dir die gewünschte SLA dazu anbietet, zB Thomas-Krenn

👏👏👏

Gruss Alex
pebcak7123
pebcak7123 Nov 20, 2024 at 09:43:03 (UTC)
Goto Top
Ein Epyc hat 128 PCIe 5 Lanes das reicht auch bei Single CPU für alles gewünschte, bei Intel muss es dagegen dual-CPU sein
ukulele-7
ukulele-7 Nov 20, 2024 at 10:02:05 (UTC)
Goto Top
Zitat von @pebcak7123:

Ein Epyc hat 128 PCIe 5 Lanes das reicht auch bei Single CPU für alles gewünschte, bei Intel muss es dagegen dual-CPU sein

Ich neige dem zuzustimmen, bin aber nicht ganz sicher. HPE (z.B.) schreibt in seinen Specs detailiert, welche Bandbreiten und wie viele Lanes möglich sind wenn man welche Slots belegt. Sie schreiben nicht, das das von der Anzahl der CPUs abhängt, zumindest finde ich es grade nicht. Allerdings, in den Tabellen zur Secondary Riser-Konfiguration steht ganz hinten "Proc 2" (es ist übrigens auch von einem "Tertiary Riser" die Rede, nur mal so), daraus könnte man ableiten das der ganze Riser nur angebunden wird, wenn CPU 2 gesteckt ist.

Ganz ehrlich, ist aber auch egal. Das fragt man bei einem Lieferanten an, das ganze Spiel ist sehr nervig. Hat aber den Vorteil das die Konfiguration auf Plausibilität geprüft wird und der Lieferant einen auch beraten sollte. Solche Fragen beantwortet der Lieferant oder im Zweifel der Hersteller. Das geht oft hin und her und dauert aber die wissen, was sie da zusammen schrauben.
MysticFoxDE
MysticFoxDE Nov 20, 2024 at 10:15:08 (UTC)
Goto Top
Moin @pebcak7123,

Ein Epyc hat 128 PCIe 5 Lanes das reicht auch bei Single CPU für alles gewünschte, bei Intel muss es dagegen dual-CPU sein

also grundsätzlich gebe ich dir Recht und zwar, dass eine 16-Kern CPU, zumindest bei ähnlicher Taktung, meistens die viel bessere Wahl ist, als 2 x 8-Kern CPU's zu nehmen.

Aber, wenn der TO den folgenden XEON nimmt ...

https://ark.intel.com/content/www/us/en/ark/products/237569/intel-xeon-g ...

... dann reichen diesem die 80 PCIe 5 Lanes glaube ich auch mehr als aus, vor allem wenn er auf das Netzwekverteilte-Software-RAID verzichtet. 🙃

Zudem kommt er dann wahrscheinlich auch nur mit zwei Nodes aus, da die CPU's dieser, dann nicht mehr auch durch das S2D mitgefressen werden. 😁

Gruss Alex
MysticFoxDE
MysticFoxDE Nov 20, 2024 updated at 10:42:24 (UTC)
Goto Top
Moin @ukulele-7,

Ich neige dem zuzustimmen, bin aber nicht ganz sicher. HPE (z.B.) schreibt in seinen Specs detailiert, welche Bandbreiten und wie viele Lanes möglich sind wenn man welche Slots belegt. Sie schreiben nicht, das das von der Anzahl der CPUs abhängt, zumindest finde ich es grade nicht. Allerdings, in den Tabellen zur Secondary Riser-Konfiguration steht ganz hinten "Proc 2" (es ist übrigens auch von einem "Tertiary Riser" die Rede, nur mal so), daraus könnte man ableiten das der ganze Riser nur angebunden wird, wenn CPU 2 gesteckt ist.

das ist bei => 2 Socket Systemen ganz normal, dass nur ein geringer Teil der PCI-E Slots durch die CPU 1 bedient werden und die anderen von der CPU 2 oder weiteren CPU's.

Daher muss man bei 2 Socket Systemen die nur mit einer CPU bestückt werden, auch höllisch auf die Bestückung der PCI-E Slots aufpassen.

Das wichtigste ist schon mal, die eine CPU am Besten nicht gleich in den zweiten Socket zu stecken oder möglichst nicht mehr als die Hälfte der im Summe zur Verfügung stehenden RAM-Bänke zu bestücken. 🙃

Ganz ehrlich, ist aber auch egal. Das fragt man bei einem Lieferanten an, das ganze Spiel ist sehr nervig. Hat aber den Vorteil das die Konfiguration auf Plausibilität geprüft wird und der Lieferant einen auch beraten sollte. Solche Fragen beantwortet der Lieferant oder im Zweifel der Hersteller. Das geht oft hin und her und dauert aber die wissen, was sie da zusammen schrauben.

In der IT, ist zumindest theoretisch, so gut wie nichts unmöglich.
Unser Lieferant hat mit erst dem Letzt eine Geschichte von einer Bestellung eines 2-Socket Systems erzählt, bei dem der entsprechende Kunde auch unbedingt zwei 8 Kerner CPU's haben wollte, aber nur einen 128G RAM Riegel und nein, nicht pro CPU. 🙃

Gruss Alex
Roland567
Roland567 Nov 25, 2024 at 13:05:13 (UTC)
Goto Top
Intel ist meiner Meinung nach gar keine Diskussion mehr. Bracht kein Mensch mehr. face-smile
Mit EPYC fährst immer besser.
8C wäre EPYC 9015
16C gibt es mehrere Optionen, je nachdem wie "grün" es ein soll. face-smile
EPYC 9115
EPYC 9135
EPYC 9175F mit fetten <4 GHz; Turbo mit 5 GHz
Da kann Intel nicht mithalten.
Und wenn wir hier von sooo viel 100GbE sprechen, scheint auch der Preis nicht mehr wirklich das Problem zu sein.
Da steckt ja was "gröberes" dahinter, wenn man die 6x 100Gb wirklich"befüllen" wollte.
Ram würde ich IMMER empfehlen jeden Channel's zu benutzen. Bei AMD also 12/CPU

Und wie schon berichtet; mit 2 HE kannst sehr viel reinpacken. Da musst schon mehr bringen. face-smile
MysticFoxDE
MysticFoxDE Nov 25, 2024 at 16:19:07 (UTC)
Goto Top
Moin @Roland567,

Intel ist meiner Meinung nach gar keine Diskussion mehr. Bracht kein Mensch mehr. face-smile
Mit EPYC fährst immer besser.

das würde ich so keineswegs behaupten.

Und ganz unabhängig davon, wenn Intel mal weg sein sollte ist, dann wird AMD fast alleine diesen Bereich dominieren und somit auch die Preise diktieren.

8C wäre EPYC 9015

https://www.intel.com/content/www/us/en/products/sku/237555/intel-xeon-g ...

16C gibt es mehrere Optionen, je nachdem wie "grün" es ein soll. face-smile
EPYC 9115
EPYC 9135

https://www.intel.com/content/www/us/en/products/sku/237560/intel-xeon-g ...

EPYC 9175F mit fetten <4 GHz; Turbo mit 5 GHz

Ja, dagegen hat Intel momentan nicht wirklich etwas 1:1 Vergleichbares aber bis zu 400W TDP ... 😬 ... damit kommt ganz sicher nicht jedes System zurecht.

Und wenn wir hier von sooo viel 100GbE sprechen, scheint auch der Preis nicht mehr wirklich das Problem zu sein.
Da steckt ja was "gröberes" dahinter, wenn man die 6x 100Gb wirklich"befüllen" wollte.

😮 ... Schande über mein Haupt, das habe ich vorher irgendwie übersehen.

Ähm ja, 6 x 100G mit nur 16 Cores oder gar 32 ist sehr sportlich, selbst bei 3 x 100G und 2 x 9175F Bestückung.
Die 100G NIC's sind primär wahrscheinlich wegen dem S2D drin was der TO so wie es aussieht auch auf den gleichen Nodes neben den VMs auch noch abfrühstücken möchte.

Das erinnert mich eher irgendwie an sowas wie 316i mit 255er Schlappen. 🙃

Gruss Alex
Roland567
Roland567 Nov 25, 2024 at 17:02:13 (UTC)
Goto Top
316i mit 255er Schlappen bringt es wirklich auf den Punkt. face-smile

User217
Hast du eine gute Begründung für 6x 100GbE ?
Später hast du gar von dem gesprochen "4 NIC's (2x100G)", also 8x 100G !?!?!?
Abgesehen davon, dass es da auch ein passendes Gegenüber braucht; also Switch und Abnehmen bzw. Befüller!!
Hast du überhaupt einen Switch, wo du die 18x bzw. 24x mit 100G anschließen kannst???

Scheint mir doch ein wenig sehr Oversized für eine Hyper-V Umgebung mit 3 Nodes.
Also entweder spielt Geld absolut keine Rolle, oder jemand hat dich da etwas falsch beraten oder du hast einen Überlegungsfehler.
Aber du schreibst ganz oben "preiswerte Hardware" face-smile face-smile face-smile
Also ich würde behaupten, dies läuft alles LOCKER mit 10G; wenn man großzügig sein möchte von mir aus auch noch 25G, aber alles andere wo mehr gefordert UND gebraucht wird, spielt in einer anderen Preisliga, wo man nicht nach "preiswerter Hardware" fragt.

den zu den 255er Schlappen, bräuchte es dann auch einen M3 oder im Minimum einer 330er

Vielen Dank für dein Feedback auf welches ich sehr gespannt bin.
Gruß Roland
MysticFoxDE
MysticFoxDE Nov 25, 2024 at 17:44:34 (UTC)
Goto Top
Moin @Roland567,

den zu den 255er Schlappen, bräuchte es dann auch einen M3 oder im Minimum einer 330er

na ja, wenn man es genau nimmt, dann sprechen wir bei 100G auch schon eher von >= 355er Schlappen.

Ich würde dem TO eher ein anständiges SAN wie z.B. das folgende ...

https://www.infortrend.com/de/products/families/esds/4000u

... empfehlen, welches er bei 3 Nodes mit z.B. bis zu 96G per SAS pro Node koppeln kann, was neben FC die effektivste Methode ist ein SAN anzubinden. Vor allem ist ein SAS HBA um einiges Günstiger wie eine 100G NIC und belastet bei selber Last, auch bei weitem nicht so sehr die Host-CPU's.

Und wenn die 11 GB/s, respektive die ...

Infortrend DS4000U - Meine neue Liebe . . . natürlich nur SAN technisch

... ~13,5 GB/s die diese Unit tatsächlich schafft nicht ausreichen sollten, dann gibt es von Infortrend z.B. noch die folgende ...

https://www.infortrend.com/de/products/families/gs/5000u

... Unit, die pro Head angeblich bis zu 50GB/s liefert.

Ich bin mir jedoch ganz sicher, dass der TO nicht mal ansatzweise ein SAN der DS4000U Kategorie ausgelastet bekommt. 🙃

By the way, die DS4000U liegt ohne Flash bei gerade mal ~25K und pro 16TB U.2 SSD, kommen noch etwa 5,5K dazu, sprich, nix wirklich teuer.

Da werden alleine bei dem bisher vom TO geplanten Konstrukt die 100G NIC's und auch die entsprechenden Switche um einiges mehr kosten und dann wird die Storage Bereitstellung trotzdem noch über die Host-CPU's laufen, die ja eigentlich ihre Leistung primär den VM's zur Verfügung stellen und auch noch die 100G NIC's bedienen sollten.

Gruss Alex
Roland567
Roland567 Nov 27, 2024 at 16:38:52 (UTC)
Goto Top
Dann sind wir aber schon beim M5 (vom 316i) face-smile
MysticFoxDE
MysticFoxDE Nov 27, 2024 at 18:46:24 (UTC)
Goto Top
Moin @Roland567,

Dann sind wir aber schon beim M5 (vom 316i) face-smile

wenn du die Infortrend Units meinst, dann performancetechnisch und auch qualitätstechnisch auf jeden Fall.
Aber ... preistechnisch liegen die eher so zwischen Focus ST und RS und haben dabei definitiv einen um Welten besseren Service wie ein Tesla. 🤪

Gruss Alex