Storage für Serverumgebung
Moin,
mittelfristig soll die von uns genutzte Serverstruktur aufgeräumt, konsolidiert und virtualisiert werden. Dafür steht die Anschaffung eines neuen Servers als Virtualisierungshost an. Jetzt stellt sich die Frage, wie es sich mit dem Storage des neuen Servers gestaltet: Wird dieser in dem Server selbst untergebracht oder geht es eher in Richtung DAS oder SAN?
Aktuell ist nur ein Server geplant, auszuschließen, dass es zu einen späteren Zeitpunkt noch weitere Server geben könnte ist nicht auszuschließen. Ich würde daher eher dahin tendieren, dem Server lediglich Bootfestplatten zu geben und den eigentlichen Storage in ein (erweiterbares) DAS oder SAN auszulagern. Ist dies soweit sinnvoll, oder ist für diese Konstellation der "klassische" Weg mit im Server verbautem Storage sinnvoller?
Natürlich soll der Speicher in einem RAID betrieben und regelmäßig gesichert werden. Es wird auf separatem Blech einen Backupserver geben, mit unabhängigen Storage.
Mit freundlichen Grüßen
mittelfristig soll die von uns genutzte Serverstruktur aufgeräumt, konsolidiert und virtualisiert werden. Dafür steht die Anschaffung eines neuen Servers als Virtualisierungshost an. Jetzt stellt sich die Frage, wie es sich mit dem Storage des neuen Servers gestaltet: Wird dieser in dem Server selbst untergebracht oder geht es eher in Richtung DAS oder SAN?
Aktuell ist nur ein Server geplant, auszuschließen, dass es zu einen späteren Zeitpunkt noch weitere Server geben könnte ist nicht auszuschließen. Ich würde daher eher dahin tendieren, dem Server lediglich Bootfestplatten zu geben und den eigentlichen Storage in ein (erweiterbares) DAS oder SAN auszulagern. Ist dies soweit sinnvoll, oder ist für diese Konstellation der "klassische" Weg mit im Server verbautem Storage sinnvoller?
Natürlich soll der Speicher in einem RAID betrieben und regelmäßig gesichert werden. Es wird auf separatem Blech einen Backupserver geben, mit unabhängigen Storage.
Mit freundlichen Grüßen
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 6681994790
Url: https://administrator.de/contentid/6681994790
Ausgedruckt am: 24.11.2024 um 16:11 Uhr
34 Kommentare
Neuester Kommentar
Single Host mit SAN oder DAS?
Warum? Wenn du das Geld abschaffen willst Spende es doch den Kindern in der Ukraine.
NVMe im Host ist Super. Oder gucke dir Mal HCI an.
Warum? Wenn du das Geld abschaffen willst Spende es doch den Kindern in der Ukraine.
NVMe im Host ist Super. Oder gucke dir Mal HCI an.
Hallo,
im Zusammenhang mit Virtualisierung ist ein externer Speicher immer eine gute Lösung. Das Erleichtert bzw. Ermöglicht redundante Lösung im Cluster. Ob DAS oder SAN hängt von der Größe des Systems ab. Ich betreibe ein 3 Host VMware-Cluster mit einem DAS (2 FC-Links pro Host) Ist bei dieser Größe kostengünstiger, da ohne FC-Switch.
Der dedizierte ERP-Server ist aus Performance-Gründen mit internem Speicher ausgestattet (NVMe im RAID10).
Es kommt also immer auf die konkrete Situation an.
Jürgen
im Zusammenhang mit Virtualisierung ist ein externer Speicher immer eine gute Lösung. Das Erleichtert bzw. Ermöglicht redundante Lösung im Cluster. Ob DAS oder SAN hängt von der Größe des Systems ab. Ich betreibe ein 3 Host VMware-Cluster mit einem DAS (2 FC-Links pro Host) Ist bei dieser Größe kostengünstiger, da ohne FC-Switch.
Der dedizierte ERP-Server ist aus Performance-Gründen mit internem Speicher ausgestattet (NVMe im RAID10).
Es kommt also immer auf die konkrete Situation an.
Jürgen
Ein oder mehrere Hosts in der Virtualisierung ist doch nicht nur eine Frage der Performance. Was machst du, wenn der Host wegen planmäßiger Wartung (zB. Updates) herunter gefahren werden muss? Firma macht Pause oder du arbeitest regelmäßig am Wochenende?
Mein Cluster ist so ausgelegt, dass 2 Server die Last "stemmen" können. Notbetrieb bekomme ich auch mit einem Server hin. Das funktioniert aber nur mit einem externen Speicher.
Auch das Backup mit direktem Zugriff auf einen externen Speicher ist performanter als wenn alles auch durch die Hosts geht.
Jürgen
Mein Cluster ist so ausgelegt, dass 2 Server die Last "stemmen" können. Notbetrieb bekomme ich auch mit einem Server hin. Das funktioniert aber nur mit einem externen Speicher.
Auch das Backup mit direktem Zugriff auf einen externen Speicher ist performanter als wenn alles auch durch die Hosts geht.
Jürgen
Viele BWLer sehen in der IT erstmal nur (sinnlose) Kosten, bis sie das erste mal für einen Tag nicht auf ihre Daten, das Internet, ihren Kalender, ihre Mails usw. zugreifen können. Das Problem ist bekannt.
Deine Frage war ja nach der Zukunftsfähigkeit deines Systems. Und mit einem DAS hast du viel mehr Optionen als mit internem Speicher. Und ein 2. Host kann später nachgerüstet werden.
Jürgen
PS. Ein Bsp. aus jüngster Vergangenheit: in einem meiner Hosts sind 4 RAM-Module ausgefallen. Trotz Garantie
und Supportvertrag dauerte es 2 Tage, bis alles wieder lief. Für mich kein Problem (siehe oben). Bei dir.....?
Deine Frage war ja nach der Zukunftsfähigkeit deines Systems. Und mit einem DAS hast du viel mehr Optionen als mit internem Speicher. Und ein 2. Host kann später nachgerüstet werden.
Jürgen
PS. Ein Bsp. aus jüngster Vergangenheit: in einem meiner Hosts sind 4 RAM-Module ausgefallen. Trotz Garantie
und Supportvertrag dauerte es 2 Tage, bis alles wieder lief. Für mich kein Problem (siehe oben). Bei dir.....?
Moin,
ICH würde auch immer schauen, dass das Storage von der Rechenkomponente getrennt ist. Zumindest, wenn es absehbar ist, dass erweitert werden soll.
Ausnahme: man hat die Möglichkeit, Themen wie HCI / vSAN (VMWare) zu arbeiten. Dann geht auch interner Speicher.
Bedenke aber, dass bei einem DAS/ SAN ebendiese Komponente dein SPOF ist. Ist die Kiste nicht auch redundant, steht alles, wenn die Kiste ausfällt. Daher kann SAN/ DAS mitunter teuer werden…
ICH würde auch immer schauen, dass das Storage von der Rechenkomponente getrennt ist. Zumindest, wenn es absehbar ist, dass erweitert werden soll.
Ausnahme: man hat die Möglichkeit, Themen wie HCI / vSAN (VMWare) zu arbeiten. Dann geht auch interner Speicher.
Bedenke aber, dass bei einem DAS/ SAN ebendiese Komponente dein SPOF ist. Ist die Kiste nicht auch redundant, steht alles, wenn die Kiste ausfällt. Daher kann SAN/ DAS mitunter teuer werden…
Ein guter Host hat eine geringe Ausfallwahrscheinlichkeit als zwei oder mehr Hardwares, wie ein Host auf externen Speicher. Zusätzlich höhere Komplexität und Kosten.
Die kannst ein Single Host System so designen dass der lokale Speicher nicht wertlos wird, falls eine Erweiterung mit shared Storage ansteht.
Ein Host auf externen Storage ist sinnfrei.
Gucke dir Mal HCI Produkte an.
Ich mag VXRails.
Die kannst ein Single Host System so designen dass der lokale Speicher nicht wertlos wird, falls eine Erweiterung mit shared Storage ansteht.
Ein Host auf externen Storage ist sinnfrei.
Gucke dir Mal HCI Produkte an.
Ich mag VXRails.
moin...
Geld soll natürlich nicht sinnlos ausgegeben werden. Ich möchte aber auch vermeiden, dass wir in die Situation kommen, doch noch einen zweiten Host zu benötigen. Der müsste dann ebenfalls eigenen Storage mitbringen. Daher zielt meine Frage auch darauf ab, was ein wenig zukunftssicherer ist. Ich möchte einfach nicht, dass wir dann kurze Zeit später feststellen, dass die Investition in einen seperaten Storage zielführender gewesen wäre.
deine frage ist nicht so einfach zu beantworten...
von was reden wir eigentlich genau, also was für VMs werden da laufen?
was für eine IO Leistung wird da gebraucht?, und was brauchst du an Platz?
wenn es um SQL geht, würde ich im host NVMe nutzen wollen, ob jetzt Raid 1 oder Raid 10 liegt bei dir und deinen ansprüchen.
wie wird dein backup scenario aussehen, und wie hoch ist die anzahl der user.
was zukunftssicherer ist, oder nicht- liegt eher bei dir und deiner planung. wie schaut den der rest aus, 1 oder 10 oder 100 GBit?
DAS und SAN sind ja gut und schön, allerdings fehlt mir da bei einem gerät die Redundanz, und in der regel wird es so sein, das bei kleinen betrieben mit einen zweiten gerät das budget in schieflage kommt. alles in allem ist das auch eine frage der wichtigkeit- wie lange darf das system stehen, wie schnell geht dein restore, ist ein ausfall wirtschaftlich zu vertreten?!?!
das sind alles dinge, die in die planung gehören!
wenn der Betrieb eher klein angesiedelt ist, nutze NVMe speicher - der kostet nicht viel, und da kannst du dir reserven in den schrank legen!
Frank
Zitat von @grmg2010:
das ist natürlich ein guten Argument!Zitat von @2423392070:
Single Host mit SAN oder DAS?
Warum? Wenn du das Geld abschaffen willst Spende es doch den Kindern in der Ukraine.
NVMe im Host ist Super. Oder gucke dir Mal HCI an.
Single Host mit SAN oder DAS?
Warum? Wenn du das Geld abschaffen willst Spende es doch den Kindern in der Ukraine.
NVMe im Host ist Super. Oder gucke dir Mal HCI an.
Geld soll natürlich nicht sinnlos ausgegeben werden. Ich möchte aber auch vermeiden, dass wir in die Situation kommen, doch noch einen zweiten Host zu benötigen. Der müsste dann ebenfalls eigenen Storage mitbringen. Daher zielt meine Frage auch darauf ab, was ein wenig zukunftssicherer ist. Ich möchte einfach nicht, dass wir dann kurze Zeit später feststellen, dass die Investition in einen seperaten Storage zielführender gewesen wäre.
von was reden wir eigentlich genau, also was für VMs werden da laufen?
was für eine IO Leistung wird da gebraucht?, und was brauchst du an Platz?
wenn es um SQL geht, würde ich im host NVMe nutzen wollen, ob jetzt Raid 1 oder Raid 10 liegt bei dir und deinen ansprüchen.
wie wird dein backup scenario aussehen, und wie hoch ist die anzahl der user.
was zukunftssicherer ist, oder nicht- liegt eher bei dir und deiner planung. wie schaut den der rest aus, 1 oder 10 oder 100 GBit?
DAS und SAN sind ja gut und schön, allerdings fehlt mir da bei einem gerät die Redundanz, und in der regel wird es so sein, das bei kleinen betrieben mit einen zweiten gerät das budget in schieflage kommt. alles in allem ist das auch eine frage der wichtigkeit- wie lange darf das system stehen, wie schnell geht dein restore, ist ein ausfall wirtschaftlich zu vertreten?!?!
das sind alles dinge, die in die planung gehören!
wenn der Betrieb eher klein angesiedelt ist, nutze NVMe speicher - der kostet nicht viel, und da kannst du dir reserven in den schrank legen!
Frank
Moin,
Gruß,
Dani
Das ist mir bewusst, dass Redundanz für Wartungsarbeiten förderlich wäre. Aktuell ist es so, dass die Server am Wochenende oder am Abend gewartet werden (müssen).
Eine Alternative könnte ein zweiter Server sein, welche mit Hyper-V in Kombination mit Replication betrieben wird. Somit könntest du Wartungsarbeiten sicherlich auch werktags durchführen und hättest ein Fallback, wenn der aktive, primäre Server ausfällt.Gruß,
Dani
Oder mit ZFS Storage Replication unter Proxmox arbeiten. Da reichen zwei Server dafür. Wenn man will kann man mit Ceph arbeiten und min. drei Server in einem HA-Cluster betreiben. Da hat jeder Server internen Storage und die Virt-Systeme sind gleichzeitig der Storage. So hat man ein übersichtliches aber polyvalentes System. Aber für genauere Aussagen müsste man dein Budget kennen und mehr Details über die Umgebung wissen.
Hallo,
wenn du Hardware zB. von Dell mit Garantie und Support als Komplettsystem kaufst, hast du im Fall der Fälle in 1-2 Tagen Ersatz. Wenn du Fremd-Hardware verbaust, kommt der Support vom Fremd-Lieferanten (aktueller Fall: Alternate 3-4 Wochen ab Eingang der defekten Teile zur Befundung).
Ob Fremd-Hardware (HDD/SSD/NVMe) im System akzeptiert wird, ist nicht immer sicher (Server meist ja, DAS/SAN häufig nein).
Jürgen
wenn du Hardware zB. von Dell mit Garantie und Support als Komplettsystem kaufst, hast du im Fall der Fälle in 1-2 Tagen Ersatz. Wenn du Fremd-Hardware verbaust, kommt der Support vom Fremd-Lieferanten (aktueller Fall: Alternate 3-4 Wochen ab Eingang der defekten Teile zur Befundung).
Ob Fremd-Hardware (HDD/SSD/NVMe) im System akzeptiert wird, ist nicht immer sicher (Server meist ja, DAS/SAN häufig nein).
Jürgen
Mache dir, deinen Vorgesetzten und deinem Budget einen gefallen: Schau dir Proxmox VE und die dazugehörige Backup-Lösung Proxmox Backup Server an. Passender Server nach Leistung mit Reserven, Storage würde ich mittlerweile auf NVMe im U.2 Format gehen. Da gibt es gute Chassis von Supermicro, da bekommst du teilweise 10 NVMe ohne Probleme voll angebunden rein. Dazu entsprechende Netzwerkschnittstellen-Erweiterungskarten, fertig. Am besten zwei Server nehmen, mit ZFS Storage Replication und einen dritten Server zu Sicherung.
Für die gesparrten Lizenzen sollte das alle mal drin sein.
Für die gesparrten Lizenzen sollte das alle mal drin sein.
Die Preise die Dell auf der Homepage angibt, zahlt man ja nicht, wenn man Dell anruft und sagt, dass man einen Preis will der den Wettbewerb standhält.
Einfach behaupten gute Angebote zu haben aber Dell zu mögen.
Einfach behaupten gute Angebote zu haben aber Dell zu mögen.
Hi,
bei uns wird auch fleißig gespart, aber die Storage hat in den letzten 10 Jahren, einige Hosts überlebt. Haben da alles mögliche aus größeren Niederlassungen "verwertet". ~10 VMs.
Auch stündliche Snapshots sind ein nettes Feature.
Dell bietet mit der ME5 ein System dass ein paar SSDs mit HDDs "mischt". Die Blöcke werden intern verteilt, je nach Zugriffsprio. (15k für ~20TB mit FC) Ob wir damit in den nächsten 10 Jahren auch so gut fahren, werden wir erst sehen.
Sg Dirm
bei uns wird auch fleißig gespart, aber die Storage hat in den letzten 10 Jahren, einige Hosts überlebt. Haben da alles mögliche aus größeren Niederlassungen "verwertet". ~10 VMs.
Auch stündliche Snapshots sind ein nettes Feature.
Dell bietet mit der ME5 ein System dass ein paar SSDs mit HDDs "mischt". Die Blöcke werden intern verteilt, je nach Zugriffsprio. (15k für ~20TB mit FC) Ob wir damit in den nächsten 10 Jahren auch so gut fahren, werden wir erst sehen.
Sg Dirm
Hallo zusammen,
ein kleines Storage System (z.b. HPE MSA 2060/2062) mit FC an den Hosts ran ist eigentlich die einfachste Lösung. Ist vom Netzwerk separat und man braucht bis 4 Hosts noch keine FC Switches.
Mit einem Host starten macht aber eigentlich auch keinen Sinn weil Storage Systeme setzt man ja wegen Redundanz ein. Wenn ich dann nur einen Host habe bringt mir ein ansich redundantes Storage auch nicht viel.
VMware vSAN ist vielleicht auch noch eine Option - oder Simplivity.
Proxmox und Konsorten sind für mich Basteleien (meine Meinung).
ein kleines Storage System (z.b. HPE MSA 2060/2062) mit FC an den Hosts ran ist eigentlich die einfachste Lösung. Ist vom Netzwerk separat und man braucht bis 4 Hosts noch keine FC Switches.
Mit einem Host starten macht aber eigentlich auch keinen Sinn weil Storage Systeme setzt man ja wegen Redundanz ein. Wenn ich dann nur einen Host habe bringt mir ein ansich redundantes Storage auch nicht viel.
VMware vSAN ist vielleicht auch noch eine Option - oder Simplivity.
Proxmox und Konsorten sind für mich Basteleien (meine Meinung).
Proxmox und Konsorten sind für mich Basteleien (meine Meinung).
Basteleien die zunehmend den Platzhirschen das Wasser abgraben. VMware büßt derzeit massiv Marktanteile ein, eben wegen Proxmox und nun auch noch TrueNAS Scale. Weil VMware zu immensen Lizenz-öKosten nichts anderes oder besseres bieten kann. Wenn die Firma VMware einsetzen will und sich das leisten möchte, ok, dann ist ja kein Problem. Aber für die Kosten, kann man sich fette Hardware hinstellen und steht VMware in der Performance in nichts nach wenn man auf OpenSource geht.
Zumal solche Sachen wie HA oder Live Migration erst durch teuere Zusatzmodule bei VMware funktionieren, hat man bei Proxmox die Sache gleich an Bord. Ob man dann noch eine Support Subscription bezahlt, ist einem dann selbst überlassen. Vor allem wenn der TE schon wegen Kostengründen "nur" einen neuen Server anschaffen will, würde ich neue Wege gehen.
Ich habe hier seit 5 Jahren insgesamt vier Ceph-Cluster unter Proxmox im Einsatz. Unzerstörbar. Die machen alles mit. Kann man beliebig skalieren. Dann noch kleinere Installationen mit Proxmox und ZFS als Storage im Einsatz. Reibungslos und selbst bei Raid1 voller Checksummen-Sicherheit, Snapshosts im Live Betrieb, Replication, Datasets und Volumes....
Dann aus dem Hause Proxmox direkt gleich auch noch ein mächtiges Backup-Tool das als Server-Installation auf einem Beliebigen Rechner installiert werden kann. Während VMware selbst als Hypervisor anfängt herumzuzicken wenn die Hardware nicht auf einer Kompatibilitätsliste steht. Muss man halt wissen ob einem das das Geld wert ist oder ob man gar aus irgendwelchen Richtlinien dran gebunden ist.
Proxmox taucht in den Statistiken unter "other" auf. 🤫
Nach dem Kauf von VMWare durch Broadcom würde ich es nicht mehr mit nem Stock anfassen.. Die werden kleinere Kunden durch immer weiter steigende Preise abstossen und dann die großen, die nicht weg kommen, melken bis zu geht nicht mehr. Der Support wird immer schlechter werden. Broadcoms Vergangenheit zeigt, dass sie bei all ihren Aufkäufen bis zu 70% der Mitarbeiter der betroffenen Firmen entlassen, um kosten zu sparen. Bei VMWare wird es nicht anders sein. Broadcom sagt, sie werden in 3 Jahren den EBITDA (Gewinn vor Zinsen, Steuern, Abschreibungen auf Sachanlagen und Abschreibungen auf immaterielle Vermögensgegenstände) von VMWare von 3,5 auf 8,5Mrd € erhöhen. Man kann sich selber ausdenken, wie sie das machen wollen.
Ist den die Essentials und Essentials Plus, bereinigt um neue Features wirklich teurer geworden?
Ab Standard aufwärts, muss ja niemand kaufen. Dennoch geht es weg wie geschnitten Brot.
Ob der persönliche Bezugspreis angemessen ist, das muss jeder für sich selbst beantworten.
Wir tauschen in Juni alle unsere M740c gegen M760c, das würde mich mit Hyper-V oder anderen sehr beunruhigen. Mit den ESXi im Support ist es hauptsächlich Kartons öffnen und wieder verpacken.
Ab Standard aufwärts, muss ja niemand kaufen. Dennoch geht es weg wie geschnitten Brot.
Ob der persönliche Bezugspreis angemessen ist, das muss jeder für sich selbst beantworten.
Wir tauschen in Juni alle unsere M740c gegen M760c, das würde mich mit Hyper-V oder anderen sehr beunruhigen. Mit den ESXi im Support ist es hauptsächlich Kartons öffnen und wieder verpacken.
Ist den die Essentials und Essentials Plus, bereinigt um neue Features wirklich teurer geworden?
Noch ist der Kauf nicht durch. Produktlinien wie Essentials werden als erstes gestrichen werden.
Wird gestrichen, weil man grundauf bösartig ist und nicht geschäftstüchtig? Ich finde das hört sich sich sehr sinnvoll und ausgeklügelt an.
Es wird sich auf die Top 600 Kunden fokussiert, weil diese 70% des Profits erzeugen. Bei den nächsten 6000 wird versucht, Verträge aufrecht zu erhalten und bei den ~100.000 darunter ist es okay, wenn sie langsam aussteigen.
Hat Broadcom CEO Tom Krause so gesagt.
Jetzt noch auf VMware zu bauen ist ME grob fahrlässig. Es sei denn man gehört zu den top 600
Hat Broadcom CEO Tom Krause so gesagt.
Jetzt noch auf VMware zu bauen ist ME grob fahrlässig. Es sei denn man gehört zu den top 600
Zitat von @Vision2015:
Moin...
Frank
Moin...
Zitat von @3063370895:
Noch ist der Kauf nicht durch. Produktlinien wie Essentials werden als erstes gestrichen werden.
und das steht wo genau?Ist den die Essentials und Essentials Plus, bereinigt um neue Features wirklich teurer geworden?
Noch ist der Kauf nicht durch. Produktlinien wie Essentials werden als erstes gestrichen werden.
Frank
"We are totally focused on the priorities of these 600 strategic accounts," Krause said.
Evidence of that focus came on another slide that revealed Broadcom's two previous major software acquisitions – CA and Symantec – each spent around 17 percent of revenue on research and development before they were bought.
Broadcom has trimmed that to 14 per cent by focusing R&D on the needs of its top 600 customers. Krause said savings come from not addressing the needs of smaller customers.
Focusing on customers who aren't likely to leave means Broadcom slashes its sales and marketing costs. Krause said CA and Symantec spent 29 percent of revenue on sales and marketing. Broadcom spends 7 percent.
Which brings us to the "Enterprise" segment on Krause's pyramid. Broadcom aims to "sustain" those 6,000 customers.
The next tier down on the pyramid is "Commercial." Krause said Broadcom is content to have those 100,000 customers "trail" over time.
Denkst du bei den top 6600 Kunden sind welche mit Essentials dabei?
Es wird auch keine Dauerlizenzen mehr geben, nur noch Abo-Lizenzen..
Was aber nicht heißt, dass die Kleinen rausfliegen. Die sind dann eben nur normale Kunden ohne TAM und Level 4+ Support.
Das ist aber auch völlig in Ordnung. 90% der Kunden benötigen ein Produkt und kein Customizing.
Wir zählen seitens Dell zu den "Global E 500" heißt zu den 500 größten Firmen der Welt und bekommen dort auch nur Standardprodukte zu kaufen.
Das ist aber auch völlig in Ordnung. 90% der Kunden benötigen ein Produkt und kein Customizing.
Wir zählen seitens Dell zu den "Global E 500" heißt zu den 500 größten Firmen der Welt und bekommen dort auch nur Standardprodukte zu kaufen.
Ich hab gerne VMware, warum?
- weil es zuverlässig läuft
- weil ich keine Treiber Themen mit der Grafik habe wenn ich Windows installiere (im Vergleich zu proxmox)
- weil ich Hardware sauber durchreichen kann (im Vergleich zu HyperV)
- weil ich nicht unbedingt beim starten von VMware eine Domäne haben muss (HyperV)
- weil ich nicht erst ein Cluster mit Filesystem erstellen muss, inkl. MPIO usw. (HyperV)
- weil ich mir keine Gedanken bei der CEPH Migration machen muss (ein Risiko ist da immer)
- weil viele Hersteller OVA Templates liefern und diese total problemlos mit VMware (aber auch mit proxmox) zu verwenden sind
Zertifizierte Hardware brauche ich natürlich, aber das ist auch kein Problem wenn man ganz normale Server von Dell, HPE, Lenovo und Konsorten kauft. Ich sehe das nicht als Problem.
Lange Rede, kurzer Sinn. Es gibt immer mehrere Meinungen, egal wen man frägt.
Am besten man sammelt seine eigenen Erfahrungen..
- weil es zuverlässig läuft
- weil ich keine Treiber Themen mit der Grafik habe wenn ich Windows installiere (im Vergleich zu proxmox)
- weil ich Hardware sauber durchreichen kann (im Vergleich zu HyperV)
- weil ich nicht unbedingt beim starten von VMware eine Domäne haben muss (HyperV)
- weil ich nicht erst ein Cluster mit Filesystem erstellen muss, inkl. MPIO usw. (HyperV)
- weil ich mir keine Gedanken bei der CEPH Migration machen muss (ein Risiko ist da immer)
- weil viele Hersteller OVA Templates liefern und diese total problemlos mit VMware (aber auch mit proxmox) zu verwenden sind
Zertifizierte Hardware brauche ich natürlich, aber das ist auch kein Problem wenn man ganz normale Server von Dell, HPE, Lenovo und Konsorten kauft. Ich sehe das nicht als Problem.
Lange Rede, kurzer Sinn. Es gibt immer mehrere Meinungen, egal wen man frägt.
Am besten man sammelt seine eigenen Erfahrungen..
Mit Proxmox Ceph-Migration, was auch immer damit gemeint ist, hatte ich nie Probleme. Ich habe ein Update von Ceph Pacific auf Quincy ohne Downtime hinbekommen... da wird wirklich fast alles umgekrempelt. Aber die wichtigen VMs waren nicht eine Sekunde down.
Das mit dem Durchreichen von Grafikkarten ist tatsächlich noch Frickelei. Das gebe ich zu. Wäre auch bei VDI für CAD-Anwendungen nicht meine erste Wahl. Aber ansonsten Netzwerkkarten oder NVMe, alles ohne Probleme. Wahlweise mit paar Clicks oder auf der CLI.
Das mit der zertifizierten Hardware ist halt auch so eine Sache. Kann man mögen muss man aber nicht. Mich würde der VendorCheck bei Massenspeichern oder Erweiterungskarten massiv stören. Weil für diese Hardware dann auch entsprechende Aufpreise verlangt werden. Ich setze da lieber auf Supermicro, dann kann man quer Beet alles reinschrauben
Aber im Endeffekt Geschmackssache und nach Einsatz zu wählen.
Da der TE aber schon das scheinbar geringe Budget muniert und dann noch die Sache die @3063370895 da angesprochen hat. Kann man sich auch woanders umsehen. Was er da macht, klingt nach 0815. Da muss es auch kein VMware oder Hyper-V + Veeam und der Lizenz-Murks sein.
Aber jeder wie er will.
Das mit dem Durchreichen von Grafikkarten ist tatsächlich noch Frickelei. Das gebe ich zu. Wäre auch bei VDI für CAD-Anwendungen nicht meine erste Wahl. Aber ansonsten Netzwerkkarten oder NVMe, alles ohne Probleme. Wahlweise mit paar Clicks oder auf der CLI.
Das mit der zertifizierten Hardware ist halt auch so eine Sache. Kann man mögen muss man aber nicht. Mich würde der VendorCheck bei Massenspeichern oder Erweiterungskarten massiv stören. Weil für diese Hardware dann auch entsprechende Aufpreise verlangt werden. Ich setze da lieber auf Supermicro, dann kann man quer Beet alles reinschrauben
Aber im Endeffekt Geschmackssache und nach Einsatz zu wählen.
Da der TE aber schon das scheinbar geringe Budget muniert und dann noch die Sache die @3063370895 da angesprochen hat. Kann man sich auch woanders umsehen. Was er da macht, klingt nach 0815. Da muss es auch kein VMware oder Hyper-V + Veeam und der Lizenz-Murks sein.
Aber jeder wie er will.
Mhhhh.
Also ich würde dir ein HP MAS 10/40 - 20/40 oder ggf. ein 50/x empfehlen. Da kannst du dann je nach Modell
entweder 24x 2,5 oder 12x 3,5 SAS Platten einbauen. Das Ding hat 2 Controller und je nach Controller Modell bekommst du 2 oder 4 SAS Schnittstellen / FC oder 10 GBE Schnittsellen womit sich dann bei 4 Schnittstellen je Controller bei 2 Controllern 8 ext. Schnittstellen ergeben. D.h. du könntest dann bis zu 4 Server redundant ( über die 2 Controller ) anschließen und ein Cluster aufbauen.
Du hättest dann je Host ( bei 4 Stück max. ) eine Redundante Storageanbindung mit der Schnittstelle deiner Wahl.
Hier würde sich je nach dem was ihr in Zukunft plant entweder SAS nehmen oder alternativ Fibre Channel als Back to Back direkt Link verwenden. Du hättest dann sozusagen einen SAN, ich würde das ganze aber eher als DAS sehen aber das ist Geschmackssache.
Was ich eher nicht machen würde ist die Platten ins System einzubauen. Das hat den Nachteil das wenn das System erweitert werden muss zum Cluster dann entweder der zweite Host die gleiche Anzahl an Platten / Speicherplatz haben muss ( wenn man mit Replica / S2D usw... ) arbeitet oder es muss dann ein Externer Storage alla HP MSA / Netapp FAS usw. gekauft werden welcher dann nochmals eigene Platten benötigt ( Eigenen Platten wegen des Supports des Herstellers ). Hieße im Umkehrschluss das ihr 2 mal Platten kaufen müsstet bzw. je nach Setup kaufen müsst. Was Ihr also jetzt spart müsst Ihr später ausgeben.
Beim OS streiten sich immer alle. Der eine Sagt VM Ware der Andere Hyper V und der nächste virtualisiert nur mit Nutanix oder XEN oder KVM usw..... Hier musst du schauen wo du hin willst. Immer an den Supportfall denken.
Es ist nun mal leichter einen Hyper V oder VM Ware Spezialisten zu finden als einen XEN/KVM/Nutanix/Proxmox wenn es denn mal brennt. Will jetzt weder das eine oder andere schlecht reden oder befürworten.
Ich z.B. mach nur Hyper V und VM Ware und sonst nix schon alleine weil ich mir nicht noch eine Plattform ans Bein binden will. Besser ich kann 2 Systeme richtig als 7 Systeme halb oder 1/4.
Beziehungsweise muss es eine Lösung sein mit der du zufrieden bist und umgehen kannst.
VM Ware hat den Nachteil das es EXTRA Lizenzkosten benötigt ( außer der FREE Version ). Windows Hyper V ist je nach dem wie Installiert wird inklusive bzw. mit der Standard Lizenz abgegolten. Klar auch hier gibts ausnahmen in bestimmten Konstellationen usw.. gleiches gilt für Nutanix usw...... Support wird man wohl für alle Systeme kaufen können.
Das ganze haben wir so in 3 Branch Offices so laufen. Allerdings mit nur 3 Hosts + 1 Backup Host. Alle Hosts über FC direkt auf die Ports des Controllers. Läuft super. Aktuell sind noch 8 GB FC Optiken verbaut aber das wird dann bal auf 16 GB erweitert weil es kaum noch 8 GB Garten bei den neuen Servern gibt. Aber letztendliche macht es keinen Unterschied ob 12G SAS / 8GB FC oder 10GbE.
Die MAS wurden genommen weil die relativ leicht erweitert werden konnten und damals unserer Meinung nach einfach das Passende System war. Wir hatten irgendwann sogar bei einem MSA mal die Controller von SAS gegen 4 x FC getauscht aber das war eher kosmetisch um die Konfig überall gleich zu haben.
Bedenke bitte eins: Ein Storage hällt deutlich länger als ein Host. Wir haben hier Storage Systeme stehen welche schon mind. 3 Systemwechsel überstanden haben. Unsere 3Par wird dem nächst auch den 3 Wechsel erleben. Da kamen irgendwann mal ein paar ( 24 Stück ) SSD´s rein und dann läuft das Dingen jetzt weitere 10 Jahre mind.
Auf den Host Systemen läuft derzeit Windows Hyper V als Failover Cluster. 1 Cluster ist in den SCVM eingebunden.
Wartung ist relativ einfach. Angefangen hatten wir pro Office mit 2 Servern unter VMWare vSphere. Aus Kostengründen dann damals zum Windows Standard gewechselt weil gleichzeitig je Host auch 2 Virtuelle VM Rechte dabei sind und der Großteil unter Windows läuft. Also Lizenzen mussten sowieso gekauft werden und daher hat es sich angeboten. GGF. ist das ja auch eine Lösung. Denke mal Datacenter dürfte für euch zu teuer sein.....
Aber ich glaube es gibt mittlerweile auch irgendwelche 8 Core Lizenzen für ROBO von MS. Müsstet mal sehen ob ihr da unter die Bedingen fallt und dies Nutzen dürftet.
Also ich würde dir ein HP MAS 10/40 - 20/40 oder ggf. ein 50/x empfehlen. Da kannst du dann je nach Modell
entweder 24x 2,5 oder 12x 3,5 SAS Platten einbauen. Das Ding hat 2 Controller und je nach Controller Modell bekommst du 2 oder 4 SAS Schnittstellen / FC oder 10 GBE Schnittsellen womit sich dann bei 4 Schnittstellen je Controller bei 2 Controllern 8 ext. Schnittstellen ergeben. D.h. du könntest dann bis zu 4 Server redundant ( über die 2 Controller ) anschließen und ein Cluster aufbauen.
Du hättest dann je Host ( bei 4 Stück max. ) eine Redundante Storageanbindung mit der Schnittstelle deiner Wahl.
Hier würde sich je nach dem was ihr in Zukunft plant entweder SAS nehmen oder alternativ Fibre Channel als Back to Back direkt Link verwenden. Du hättest dann sozusagen einen SAN, ich würde das ganze aber eher als DAS sehen aber das ist Geschmackssache.
Was ich eher nicht machen würde ist die Platten ins System einzubauen. Das hat den Nachteil das wenn das System erweitert werden muss zum Cluster dann entweder der zweite Host die gleiche Anzahl an Platten / Speicherplatz haben muss ( wenn man mit Replica / S2D usw... ) arbeitet oder es muss dann ein Externer Storage alla HP MSA / Netapp FAS usw. gekauft werden welcher dann nochmals eigene Platten benötigt ( Eigenen Platten wegen des Supports des Herstellers ). Hieße im Umkehrschluss das ihr 2 mal Platten kaufen müsstet bzw. je nach Setup kaufen müsst. Was Ihr also jetzt spart müsst Ihr später ausgeben.
Beim OS streiten sich immer alle. Der eine Sagt VM Ware der Andere Hyper V und der nächste virtualisiert nur mit Nutanix oder XEN oder KVM usw..... Hier musst du schauen wo du hin willst. Immer an den Supportfall denken.
Es ist nun mal leichter einen Hyper V oder VM Ware Spezialisten zu finden als einen XEN/KVM/Nutanix/Proxmox wenn es denn mal brennt. Will jetzt weder das eine oder andere schlecht reden oder befürworten.
Ich z.B. mach nur Hyper V und VM Ware und sonst nix schon alleine weil ich mir nicht noch eine Plattform ans Bein binden will. Besser ich kann 2 Systeme richtig als 7 Systeme halb oder 1/4.
Beziehungsweise muss es eine Lösung sein mit der du zufrieden bist und umgehen kannst.
VM Ware hat den Nachteil das es EXTRA Lizenzkosten benötigt ( außer der FREE Version ). Windows Hyper V ist je nach dem wie Installiert wird inklusive bzw. mit der Standard Lizenz abgegolten. Klar auch hier gibts ausnahmen in bestimmten Konstellationen usw.. gleiches gilt für Nutanix usw...... Support wird man wohl für alle Systeme kaufen können.
Das ganze haben wir so in 3 Branch Offices so laufen. Allerdings mit nur 3 Hosts + 1 Backup Host. Alle Hosts über FC direkt auf die Ports des Controllers. Läuft super. Aktuell sind noch 8 GB FC Optiken verbaut aber das wird dann bal auf 16 GB erweitert weil es kaum noch 8 GB Garten bei den neuen Servern gibt. Aber letztendliche macht es keinen Unterschied ob 12G SAS / 8GB FC oder 10GbE.
Die MAS wurden genommen weil die relativ leicht erweitert werden konnten und damals unserer Meinung nach einfach das Passende System war. Wir hatten irgendwann sogar bei einem MSA mal die Controller von SAS gegen 4 x FC getauscht aber das war eher kosmetisch um die Konfig überall gleich zu haben.
Bedenke bitte eins: Ein Storage hällt deutlich länger als ein Host. Wir haben hier Storage Systeme stehen welche schon mind. 3 Systemwechsel überstanden haben. Unsere 3Par wird dem nächst auch den 3 Wechsel erleben. Da kamen irgendwann mal ein paar ( 24 Stück ) SSD´s rein und dann läuft das Dingen jetzt weitere 10 Jahre mind.
Auf den Host Systemen läuft derzeit Windows Hyper V als Failover Cluster. 1 Cluster ist in den SCVM eingebunden.
Wartung ist relativ einfach. Angefangen hatten wir pro Office mit 2 Servern unter VMWare vSphere. Aus Kostengründen dann damals zum Windows Standard gewechselt weil gleichzeitig je Host auch 2 Virtuelle VM Rechte dabei sind und der Großteil unter Windows läuft. Also Lizenzen mussten sowieso gekauft werden und daher hat es sich angeboten. GGF. ist das ja auch eine Lösung. Denke mal Datacenter dürfte für euch zu teuer sein.....
Aber ich glaube es gibt mittlerweile auch irgendwelche 8 Core Lizenzen für ROBO von MS. Müsstet mal sehen ob ihr da unter die Bedingen fallt und dies Nutzen dürftet.
Moin,
ganz ehrlich? - keep it simple: wenn Investitionen für nur 1 Server getägt werden sollen, würde ich einen HyperV-Server mit lokalem SSD-Storage und Replikation auf "irgend ein billiges Ziel" (Altserver?) wählen. Die Frage nach einem sinnvollem , fehlerredundantem Storage dürfte sich mangels Budget gar nicht stellen.
Jedenfalls betreibe ich meine kleinen Standorte (5-30 vm's) mit ihren lokalen Installationen seit >10 Jahren so, die Komplexität hält sich in Grenzen und die Zuverlässigkeit war damit immer gegeben.
Natürlich liebäugelt man doch hier und da mit einem echten FC-SAN oder eben mit Azure Stack HCI - aber das bleibt hier momentan den zentralen Systemen vorbehalten.
ganz ehrlich? - keep it simple: wenn Investitionen für nur 1 Server getägt werden sollen, würde ich einen HyperV-Server mit lokalem SSD-Storage und Replikation auf "irgend ein billiges Ziel" (Altserver?) wählen. Die Frage nach einem sinnvollem , fehlerredundantem Storage dürfte sich mangels Budget gar nicht stellen.
Jedenfalls betreibe ich meine kleinen Standorte (5-30 vm's) mit ihren lokalen Installationen seit >10 Jahren so, die Komplexität hält sich in Grenzen und die Zuverlässigkeit war damit immer gegeben.
Natürlich liebäugelt man doch hier und da mit einem echten FC-SAN oder eben mit Azure Stack HCI - aber das bleibt hier momentan den zentralen Systemen vorbehalten.