Migration auf HCI
Moin zusammen,
wir haben eine über Jahrzehnte gewachsene Server, Storage und Netzwerkinfrastruktur.
Es wurde immer das getauscht oder erweitert was gerade notwendig war.
Nun spielt man mit dem Gedanken einer HCI Lösung um Erweiterungen und auch Updates einfacher zu machen.
Für mich ist HCI „Neuland“. Habe noch nie an einer drangesessen und dementsprechend keinerlei Erfahrung. Das Ganze kenne ich nur als theoretisches Konstrukt (z.B. VXRail), wenn man auf der grünen Wiese neu anfängt. Was ja hier so nicht gegeben ist.
Hat von euch mal jemand von „gewachsen“ auf HCI migriert?
Ist das wirklich so, dass man dazu einmal komplett alles rauswerfen muss, um durch HCI zu ersetzen?
Klärt mich mal auf.
Umfang:
Ca 30 ESX im Zustand von „noch nicht mal ausgepackt“ bis 7 Jahre alt
300TB Fullflash HA SAN
8 Redundante Backbone 25/100G Switche: 1 – 4 Jahre alt
Danke und schönes WE
wir haben eine über Jahrzehnte gewachsene Server, Storage und Netzwerkinfrastruktur.
Es wurde immer das getauscht oder erweitert was gerade notwendig war.
Nun spielt man mit dem Gedanken einer HCI Lösung um Erweiterungen und auch Updates einfacher zu machen.
Für mich ist HCI „Neuland“. Habe noch nie an einer drangesessen und dementsprechend keinerlei Erfahrung. Das Ganze kenne ich nur als theoretisches Konstrukt (z.B. VXRail), wenn man auf der grünen Wiese neu anfängt. Was ja hier so nicht gegeben ist.
Hat von euch mal jemand von „gewachsen“ auf HCI migriert?
Ist das wirklich so, dass man dazu einmal komplett alles rauswerfen muss, um durch HCI zu ersetzen?
Klärt mich mal auf.
Umfang:
Ca 30 ESX im Zustand von „noch nicht mal ausgepackt“ bis 7 Jahre alt
300TB Fullflash HA SAN
8 Redundante Backbone 25/100G Switche: 1 – 4 Jahre alt
Danke und schönes WE
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 671684
Url: https://administrator.de/forum/migration-auf-hci-671684.html
Ausgedruckt am: 31.03.2025 um 12:03 Uhr
12 Kommentare
Neuester Kommentar
Moin,
Wenn eure Strukturen historisch gewachsen sind, dann wäre das ein großer Aufwand diese Stückweise z.B. nach VMware HCI zu bringen. Wenn genug Ressourcen frei sind, ist dies sicher machbar. Aber wenn da schon Hardware aus verschiedenen Generationen ist, dann wird das vermutlich schon daran scheitern.
Aber auch eine HCI Lösung hat eine begrenzte Betriebs- und Supportzeit. Ein Wechsel ist nach einigen Jahren ein Notwendiges Übel. Allein schon weil die Anforderungen an die Ressourcen ständig wachsen. Klar kann man immer erweitern, dann hat man aber quasi den gleiche Zustand wie jetzt mit "bunter" Mischung.
HCI spielt für mich keine Rolle, da die Lizenzierung für uns zu teuer ist. Da wird z.B. bei VMware nicht nur nach CPUs berechnet, sondern auch nach dem Storage. In euren Dimensionen sind das Preise (jährlich) von €200k und mehr.
Wenn eure Strukturen historisch gewachsen sind, dann wäre das ein großer Aufwand diese Stückweise z.B. nach VMware HCI zu bringen. Wenn genug Ressourcen frei sind, ist dies sicher machbar. Aber wenn da schon Hardware aus verschiedenen Generationen ist, dann wird das vermutlich schon daran scheitern.
Aber auch eine HCI Lösung hat eine begrenzte Betriebs- und Supportzeit. Ein Wechsel ist nach einigen Jahren ein Notwendiges Übel. Allein schon weil die Anforderungen an die Ressourcen ständig wachsen. Klar kann man immer erweitern, dann hat man aber quasi den gleiche Zustand wie jetzt mit "bunter" Mischung.
HCI spielt für mich keine Rolle, da die Lizenzierung für uns zu teuer ist. Da wird z.B. bei VMware nicht nur nach CPUs berechnet, sondern auch nach dem Storage. In euren Dimensionen sind das Preise (jährlich) von €200k und mehr.
Moin,
Für uns ist HCI auch kein Thema:
Wir haben ein Stretched Cluster. Also die beiden ESXi-Hosts und das SAN sind auf zwei Räume verteilt.
Würden wir auf HCI (z.B. Nutanix) gehen, bräuchten wir 6 Knoten, drei auf jeder Seite. Die Knoten bräuchten dann auch in Summe die rund 140TB Storage (nutzbare Kapazität). Da rechnet sich für uns die bestehende Thematik mehr. Zumal auch SAN-Storages in Teilen Festures mitbringen, die IMHO HCI nicht hat (soweit ich weiß).
Ich würde an eurer Stelle ebenfalls bei dem 2-Tier-Konzept bleiben:
Rechnenjapszität und Stirage getrennt.
Ob ihr die 30 ESXi-Hosts aber braucht, kann ich nicht sagen.
Ggf. Rechnet sich es, diese zu ersetzen, alle mal mit 1-2TB RAM auszustatten und dann deutlich reduzieren.
CPU ist ja selten ein Showstopper. Davon könnte am Ende auch noch anderes profitieren. Wer Veeam nutzt, spart auch bei den Lizenzen. Und bei euerer vSphere Struktur wäre ein absatteln auch finanziell attraktiv (ohne eure Infrastruktur zu kennen).
Für uns ist HCI auch kein Thema:
Wir haben ein Stretched Cluster. Also die beiden ESXi-Hosts und das SAN sind auf zwei Räume verteilt.
Würden wir auf HCI (z.B. Nutanix) gehen, bräuchten wir 6 Knoten, drei auf jeder Seite. Die Knoten bräuchten dann auch in Summe die rund 140TB Storage (nutzbare Kapazität). Da rechnet sich für uns die bestehende Thematik mehr. Zumal auch SAN-Storages in Teilen Festures mitbringen, die IMHO HCI nicht hat (soweit ich weiß).
Ich würde an eurer Stelle ebenfalls bei dem 2-Tier-Konzept bleiben:
Rechnenjapszität und Stirage getrennt.
Ob ihr die 30 ESXi-Hosts aber braucht, kann ich nicht sagen.
Ggf. Rechnet sich es, diese zu ersetzen, alle mal mit 1-2TB RAM auszustatten und dann deutlich reduzieren.
CPU ist ja selten ein Showstopper. Davon könnte am Ende auch noch anderes profitieren. Wer Veeam nutzt, spart auch bei den Lizenzen. Und bei euerer vSphere Struktur wäre ein absatteln auch finanziell attraktiv (ohne eure Infrastruktur zu kennen).
Moin @ElmerAcmeee,
sprich, ihr habt eine historisch gewachsene IT-Landschaft. 🙃
Das mit einfach erweitern, vor allem was Storage angeht, entspricht bei den HCI Systemen die ich bisher kenne, wohl eher reinem Marketingwunschdenken als der Praxis und das Update eines solchen Systems ist im Vergleich zu einem klassischen, sprich SAN basiertem Hypervisor-Cluster auch nicht wirklich einfacher, sondern eher aufwändiger, da z.B. nach jeden Reboot der Nodes, das vSAN neu synchronisiert werden muss. 😔
Also, wenn du z.B. von einem VMware nicht HCI auf ein VMware HCI System wechselst, dann ist der Migrationsaufwand, sprich das Verschieben der VM's von A nach B, sehr überschaubar.
Selbes gilt auch bei Hyper-V.
Wenn du jedoch von VMware nicht HCI auf MS AS-HCI migrieren möchtest, dann musst du auch für die Migration der VM's einiges an Aufwand mit einrechnen, vor allem bei Linux-VM's.
Jup, denn für so gut wie alle HCI Systeme die ich kenne, benötig man auch eine entsprechend zertifizierte Hardware, ansonsten gibt es seitens des HV Herstellers genau 0 Support.
Wenn ihr schon ein AllFlash SAN besitzt, dann würde ich um ein HCI System eher einen grossen Bogen machen,
denn deren Leistung, also die eines vSAN's, kommt nicht wirklich an die eines erwachsenen Enterprise-SAN's heran.
Beste Grüsse aus BaWü
Alex
wir haben eine über Jahrzehnte gewachsene Server, Storage und Netzwerkinfrastruktur.
Es wurde immer das getauscht oder erweitert was gerade notwendig war.
Es wurde immer das getauscht oder erweitert was gerade notwendig war.
sprich, ihr habt eine historisch gewachsene IT-Landschaft. 🙃
Nun spielt man mit dem Gedanken einer HCI Lösung um Erweiterungen und auch Updates einfacher zu machen.
Das mit einfach erweitern, vor allem was Storage angeht, entspricht bei den HCI Systemen die ich bisher kenne, wohl eher reinem Marketingwunschdenken als der Praxis und das Update eines solchen Systems ist im Vergleich zu einem klassischen, sprich SAN basiertem Hypervisor-Cluster auch nicht wirklich einfacher, sondern eher aufwändiger, da z.B. nach jeden Reboot der Nodes, das vSAN neu synchronisiert werden muss. 😔
Hat von euch mal jemand von „gewachsen“ auf HCI migriert?
Also, wenn du z.B. von einem VMware nicht HCI auf ein VMware HCI System wechselst, dann ist der Migrationsaufwand, sprich das Verschieben der VM's von A nach B, sehr überschaubar.
Selbes gilt auch bei Hyper-V.
Wenn du jedoch von VMware nicht HCI auf MS AS-HCI migrieren möchtest, dann musst du auch für die Migration der VM's einiges an Aufwand mit einrechnen, vor allem bei Linux-VM's.
Ist das wirklich so, dass man dazu einmal komplett alles rauswerfen muss, um durch HCI zu ersetzen?
Klärt mich mal auf.
Klärt mich mal auf.
Jup, denn für so gut wie alle HCI Systeme die ich kenne, benötig man auch eine entsprechend zertifizierte Hardware, ansonsten gibt es seitens des HV Herstellers genau 0 Support.
300TB Fullflash HA SAN
Wenn ihr schon ein AllFlash SAN besitzt, dann würde ich um ein HCI System eher einen grossen Bogen machen,
denn deren Leistung, also die eines vSAN's, kommt nicht wirklich an die eines erwachsenen Enterprise-SAN's heran.
Beste Grüsse aus BaWü
Alex
Moin,
Ist ein spannendes Szenario bei euch. Wir hatten um 2015 - 2022 die HPE StoreVirtual als Appliance auf dem ESX im Einsatz verfolgt auch einen HCI ansatz. Seit 2022 sind wir nun auf einem vSAN Stretched Cluster unterwegs- 3 Hosts pro RZ + Witness Node. Je nach Policy im vSAN hast du mehr oder weniger TB für die Prod-Umgebung im Einsatz. Wir haben uns damals bewusst gegen VXRail entschieden und nur normale vSAN Ready Nodes beschafft.
Liegen ohne Redundanz aktuell bei 270TB Nutzbarem Speicher. Uns kann anhand der Policy die wir fahren. Entweder ein komplettes RZ wegfallen oder pro Seite mindestens ein Host.
Bei eurer Umgebung wäre ich zwie gespalten, wenn ich es Sizen müsste.
Mindestens 1200 TB Speicher damit du die vermutlich gleiche Redundanz wie jetzt hast. Den du willst bestimmt RAID 5 im RZ haben und dann über beide RZ dann ein RAID1?
CPUs und RAM nach Wahl. Wobei bedenken pro Diskgroup - mindestens 8GB besser aber 32GB RAM. Eine Diskgroup kann maximal 7x Capacity Disks plus eine Cache SSD.
Der Verlust einer Capacity Disk ist bei vSAN ärgerlich aber nicht so tragisch. Viel Schlimmer ist es wenn die Cache Disk wegfliegt dann geht die ganze Diskgroup verloren.
Nach dem Kauf von Broadcom sind die Lizenzen sehr sehr teuer geworden. Wir stehen 2027 vor dem Renew der Architektur und überlegen gerade auch bleiben wir da oder wechseln wir.
Ziehe dir ein Systemhaus auf jeden Fall zur Rate die sollen mal durch kalkulieren was euch das kostet. Evt macht bei eurer Infra auch eine geclusterte Netapp oder Dell Storage Sinn mit Dedup drunter.
Beste Grüße
Ist ein spannendes Szenario bei euch. Wir hatten um 2015 - 2022 die HPE StoreVirtual als Appliance auf dem ESX im Einsatz verfolgt auch einen HCI ansatz. Seit 2022 sind wir nun auf einem vSAN Stretched Cluster unterwegs- 3 Hosts pro RZ + Witness Node. Je nach Policy im vSAN hast du mehr oder weniger TB für die Prod-Umgebung im Einsatz. Wir haben uns damals bewusst gegen VXRail entschieden und nur normale vSAN Ready Nodes beschafft.
Liegen ohne Redundanz aktuell bei 270TB Nutzbarem Speicher. Uns kann anhand der Policy die wir fahren. Entweder ein komplettes RZ wegfallen oder pro Seite mindestens ein Host.
Bei eurer Umgebung wäre ich zwie gespalten, wenn ich es Sizen müsste.
Mindestens 1200 TB Speicher damit du die vermutlich gleiche Redundanz wie jetzt hast. Den du willst bestimmt RAID 5 im RZ haben und dann über beide RZ dann ein RAID1?
CPUs und RAM nach Wahl. Wobei bedenken pro Diskgroup - mindestens 8GB besser aber 32GB RAM. Eine Diskgroup kann maximal 7x Capacity Disks plus eine Cache SSD.
Der Verlust einer Capacity Disk ist bei vSAN ärgerlich aber nicht so tragisch. Viel Schlimmer ist es wenn die Cache Disk wegfliegt dann geht die ganze Diskgroup verloren.
Nach dem Kauf von Broadcom sind die Lizenzen sehr sehr teuer geworden. Wir stehen 2027 vor dem Renew der Architektur und überlegen gerade auch bleiben wir da oder wechseln wir.
Ziehe dir ein Systemhaus auf jeden Fall zur Rate die sollen mal durch kalkulieren was euch das kostet. Evt macht bei eurer Infra auch eine geclusterte Netapp oder Dell Storage Sinn mit Dedup drunter.
Beste Grüße
Moin @ElmerAcmeee,
ohne einen Hypervisor, ist ein HCI nicht wirklich ein HCI. 🙃
> Nichts desto trotz eruieren wir gerne eine solche Lösung. Termine mit Systemhäusern sind noch ausstehend.
Lass dir entweder ein Testsystem bereitstellen oder schau dir bitte wenigstens Referenzsysteme des entsprechenden Herstellers an und sprich am besten direkt mit den Kunden die diese einsetzen und lasse dir auf keinen Fall eine Katze in Sack andrehen, denn das ist bei diesem Thema ganz schnell passiert.
Ja, aber meist in Verbindung mit dem vSAN, respektive, Cluster-Sync, denn hier müssen auch die Switche bestimmte Voraussetzungen wie RDMA, DCB & Co. erfüllen.
Und lass bitte gleich die Finger weg von jeglichem „Fully Converged Network“ & Co, denn das funktioniert stand heute eher nur theoretisch als praktisch. 😔
Für das Backbone wirst du vermutlich schon zusätzliche Switche benötigen, das Frontend hingegen, kannst du wahrscheinlich jedoch über die bestehenden bedienen.
Gruss Alex
eine neue Erkenntnis für mich: Bestandteil von HCI ist natürlich auch der Hypervisor. Hatte ich so gar nicht auf dem Schirm. Sollen oder möchten wir dabei bleiben? Muss ich klären...
ohne einen Hypervisor, ist ein HCI nicht wirklich ein HCI. 🙃
> Nichts desto trotz eruieren wir gerne eine solche Lösung. Termine mit Systemhäusern sind noch ausstehend.
Um da aber dann die richtigen Fragen zu stellen, nutze ich dies hier zur Vorbereitung
DANKE!
Lass dir entweder ein Testsystem bereitstellen oder schau dir bitte wenigstens Referenzsysteme des entsprechenden Herstellers an und sprich am besten direkt mit den Kunden die diese einsetzen und lasse dir auf keinen Fall eine Katze in Sack andrehen, denn das ist bei diesem Thema ganz schnell passiert.
Noch eine (eher rhetorische) Frage zum Netzwerk - dies ist ja auch teilweise Bestandteil von HCI-Lösungen.
Ja, aber meist in Verbindung mit dem vSAN, respektive, Cluster-Sync, denn hier müssen auch die Switche bestimmte Voraussetzungen wie RDMA, DCB & Co. erfüllen.
Und lass bitte gleich die Finger weg von jeglichem „Fully Converged Network“ & Co, denn das funktioniert stand heute eher nur theoretisch als praktisch. 😔
Zum koppeln mit der restlichen Landschaft und auch Servern die nicht Bestandteil einer neuen HCI wären, benötigt man dann doch dennoch eigene / zusätzliche Backbone Switche?
Für das Backbone wirst du vermutlich schon zusätzliche Switche benötigen, das Frontend hingegen, kannst du wahrscheinlich jedoch über die bestehenden bedienen.
Gruss Alex
Moin @niklasschaefer,
wenn dem TO nicht nur Schnickschnack sondern auch Dinge wie Performance wichtig sind, dann sollte er bei dem was er vor hat, sowohl um eine NetApp als auch um Dedup, eher einen ganz grossen Bogen machen.
Es ist gerade mal einige Monate her, als ich die letzte NetApp in den Fingern hatte und ich werde auch ganz sicher nicht so schnell das Gesicht eines des verantwortlichen Admins vergessen, als ich ihm dann gezeigt habe, was ein richtiges AllFlash-Block-SAN im Vergleich zu seiner AllFlash-NetApp alles leisten kann, welches auch noch nur einen Bruchteil seiner NetApp gekostet hat. 🙃
Und Dedup ist egal ob NetApp oder was anderes, nicht wirklich eine gute Idee, vor allem wenn auf diesem System, nicht nur Dateiserver sondern auch Dinge wie z.B. schreibwüttige Applikationsserver oder gar Datenbanken mit laufen.
Gruss Alex
Evt macht bei eurer Infra auch eine geclusterte Netapp oder Dell Storage Sinn mit Dedup drunter.
wenn dem TO nicht nur Schnickschnack sondern auch Dinge wie Performance wichtig sind, dann sollte er bei dem was er vor hat, sowohl um eine NetApp als auch um Dedup, eher einen ganz grossen Bogen machen.
Es ist gerade mal einige Monate her, als ich die letzte NetApp in den Fingern hatte und ich werde auch ganz sicher nicht so schnell das Gesicht eines des verantwortlichen Admins vergessen, als ich ihm dann gezeigt habe, was ein richtiges AllFlash-Block-SAN im Vergleich zu seiner AllFlash-NetApp alles leisten kann, welches auch noch nur einen Bruchteil seiner NetApp gekostet hat. 🙃
Und Dedup ist egal ob NetApp oder was anderes, nicht wirklich eine gute Idee, vor allem wenn auf diesem System, nicht nur Dateiserver sondern auch Dinge wie z.B. schreibwüttige Applikationsserver oder gar Datenbanken mit laufen.
Gruss Alex
Moin @ElmerAcmeee,
👍
😮 ... ihr habt ein PureStorage ... lecker ... ja, genau sowas meine ich mit einem anständigen Block-SAN ... ist für mein Gusto aber noch etwas zu teuer.
Ist auch kein Wunder, denn die NetApp ist unter dem Kleidchen ja auch eher ein Filer als ein Block. 🙃
Für die Umgebung die du bisher beschrieben hast, zählt jedoch ausschliesslich die Block-Performance eines SAN's und nicht seine Filer Fähigkeiten.
Wenn da auch DB's drauf laufen, dann schau mal genauer auf die Latenzen beim Schreiben. 😉
Ja, bei den AllFlash-PureStorage's kann man weder die komprimierung noch die Deduplication abschalten, mit der Begründung, dass dies wegen der SSD Lebensdauer nicht möglich ist. 🙃
https://blog.purestorage.com/purely-technical/deduplication-compression- ...
Diese Argumentation finde ich jedoch sehr dürftig.
Wir implementieren schon seit fast 15 Jahren AllFlash Systeme und hatten bei diesen noch nie Probleme mit der Lebensdauer der SSD's und zwar ganz ohne Dedup oder Kompression.
Also die SAN's die ich bisher in den fingern hatte, waren ohne Dedup immer deutlich schneller als mit.
Kenne ich in dieser Grössenordnung auch nicht wirklich anders.
Wenn du alles nur noch über eine HCI-Platform betreiben möchtest, dann ja.
Ich fürchte jedoch, dass ihr bei diesem Plan, spätestens auf der halben Strecke dasselbe feststellt, wie auch bei der NetApp, sprich ...
... denn, wie schon zuvor geschrieben, einen HV-Node durch zu booten, auf dem auch ein vSAN läuft, ist nicht wirklich dasselbe, wie einen, der an einem eigenständigen SAN hängt.
Ausserdem nagt ein SAN auch nicht wirklich grossartig an der CPU-Leistung und auch dem RAM der HV Nodes mit rum, was ja eigentlich primär für die VM bereitgestellt werden sollte.
By the way, das mit "Wir haben als erste das wahre Unified Block and File SAN erfunden" ...
https://blog.purestorage.com/purely-technical/finally-truly-unified-bloc ...
... ist so nicht wirklich ganz korrekt.
Das gibt es bei Infortrend in Form der GS Units ...
https://www.infortrend.com/de/products/gs
... schon bestimmt seit etwa 10 Jahren. 🙃
Gruss Alex
Und die werden wir selbstverständlich nicht ohne intensive Tests oder auch Besichtigungen beim Kunden ausgeben. 
👍
Wir sind vor fast 10 Jahren von einem NetApp streched Cluster (drehende Disk mit FlashCache) weg zu einem PureStorage Cluster.
😮 ... ihr habt ein PureStorage ... lecker ... ja, genau sowas meine ich mit einem anständigen Block-SAN ... ist für mein Gusto aber noch etwas zu teuer.
Der Performanceunterschied war gewaltig!
Ist auch kein Wunder, denn die NetApp ist unter dem Kleidchen ja auch eher ein Filer als ein Block. 🙃
Für die Umgebung die du bisher beschrieben hast, zählt jedoch ausschliesslich die Block-Performance eines SAN's und nicht seine Filer Fähigkeiten.
Nun haben wir ein Pure Ha Cluster und diese nutzt auch Dedup. Performancethemen gibt es keine! ca 400 VMs und 300 VDIs und das Ding langweilt sich.
Wenn da auch DB's drauf laufen, dann schau mal genauer auf die Latenzen beim Schreiben. 😉
Da ich das Dedup nicht abschalten kann, kann ich allerdings auch nicht sagen wie schnell ein SAN ohne wäre.
Ja, bei den AllFlash-PureStorage's kann man weder die komprimierung noch die Deduplication abschalten, mit der Begründung, dass dies wegen der SSD Lebensdauer nicht möglich ist. 🙃
https://blog.purestorage.com/purely-technical/deduplication-compression- ...
Diese Argumentation finde ich jedoch sehr dürftig.
Wir implementieren schon seit fast 15 Jahren AllFlash Systeme und hatten bei diesen noch nie Probleme mit der Lebensdauer der SSD's und zwar ganz ohne Dedup oder Kompression.
Zudem haben wir einige DELL PowerStores. Auch mit Dedup. Auch hier, das Storage ist nicht der Flaschenhals.
Also die SAN's die ich bisher in den fingern hatte, waren ohne Dedup immer deutlich schneller als mit.
In diesen Strukturen wird immer das erweitert oder ersetzt was gerade notwendig ist. Fehlt RAM, erweitern wir nen ESX. Fehlt CPU wird entweder ein ESX ersetzt oder wir erweitern. Geht ein System EOL schauen wir was es neues gibt.
Kenne ich in dieser Grössenordnung auch nicht wirklich anders.
Die 30 ESX sind auch nicht alle im Cluster, sondern werden teils auch als Individuallösung genutzt - angebunden ans SAN. Für mich bedeutet nun HCI, dass wir wirklich ALLE Systeme betrachten müssen, die irgendwie mit der Server Infrastruktur zusammen hängen.
Wenn du alles nur noch über eine HCI-Platform betreiben möchtest, dann ja.
Ich fürchte jedoch, dass ihr bei diesem Plan, spätestens auf der halben Strecke dasselbe feststellt, wie auch bei der NetApp, sprich ...
zu aufwändig um es nebenher zu administrieren.
... denn, wie schon zuvor geschrieben, einen HV-Node durch zu booten, auf dem auch ein vSAN läuft, ist nicht wirklich dasselbe, wie einen, der an einem eigenständigen SAN hängt.
Ausserdem nagt ein SAN auch nicht wirklich grossartig an der CPU-Leistung und auch dem RAM der HV Nodes mit rum, was ja eigentlich primär für die VM bereitgestellt werden sollte.
By the way, das mit "Wir haben als erste das wahre Unified Block and File SAN erfunden" ...
https://blog.purestorage.com/purely-technical/finally-truly-unified-bloc ...
... ist so nicht wirklich ganz korrekt.
Das gibt es bei Infortrend in Form der GS Units ...
https://www.infortrend.com/de/products/gs
... schon bestimmt seit etwa 10 Jahren. 🙃
Gruss Alex
Moin @ElmerAcmeee,
ja, eine synchrone Spiegelung kostet eben neben ordentlich Geld oft auch einiges an Performance. 😔
Deshalb bin ich meistens auch nicht wirklich sehr davon begeistert, wenn ich latenzkritische Anwendungen auf einem synchron gespiegelten SAN's finde, vor allem denen von NetApp. 🙃
Infortrend DS4000U - Meine neue Liebe . . . natürlich nur SAN technisch
😉
Ähm, Vorsicht bei einem sequentiellem Workload mag das noch zustimmen, wenn man das ganze jedoch unter random Bedingungen betrachtet, wird aus einer flinken Gazelle oft nur noch eine lahme Schildkröte.
Schaut euch das bitte ordentlich im Vorfeld an!
Im Nachgang nur noch die Scherben zusammenzukehren, ist bei so einer Grösse auch nicht wirklich sehr lustig.
Gruss Alex
Die Latenz kommt bei uns eher vom synchronen SAN. Die verdoppelt sich halt.
ja, eine synchrone Spiegelung kostet eben neben ordentlich Geld oft auch einiges an Performance. 😔
Deshalb bin ich meistens auch nicht wirklich sehr davon begeistert, wenn ich latenzkritische Anwendungen auf einem synchron gespiegelten SAN's finde, vor allem denen von NetApp. 🙃
Wenn du das gerne mal vergleichen möchtest, gerne per PN.
Infortrend DS4000U - Meine neue Liebe . . . natürlich nur SAN technisch
😉
Prinzipiell geht es darum, dass ein Großteil gar nicht mehr echt geschrieben wird, sondern nur verpointert.
Besonders merkt man das auf Dedup Backup-Repositories. Da kommt man auch bei verbauten großen SATA Platten auf mehrere GB/s Durchsatz beim Schreiben. Was rein rechnerisch und technisch sonst gar nicht gehen würde
Besonders merkt man das auf Dedup Backup-Repositories. Da kommt man auch bei verbauten großen SATA Platten auf mehrere GB/s Durchsatz beim Schreiben. Was rein rechnerisch und technisch sonst gar nicht gehen würde
Ähm, Vorsicht bei einem sequentiellem Workload mag das noch zustimmen, wenn man das ganze jedoch unter random Bedingungen betrachtet, wird aus einer flinken Gazelle oft nur noch eine lahme Schildkröte.
Für die Größe und Komplexität unserer Umgebung, stecken wir für meinen Geschmack da auch nicht so viel Arbeit in das System.
Schaut euch das bitte ordentlich im Vorfeld an!
Im Nachgang nur noch die Scherben zusammenzukehren, ist bei so einer Grösse auch nicht wirklich sehr lustig.
Gruss Alex