Hyper-V Hardwareempfehlung
Hallo zusammen,
ich lese mich gerade ein bisschen in die Materie ein und wollte mal von euch wissen, was ihr von meinen Überlegungen haltet.
Geplant ist eine Hyper-V Umgebung für ca. 6 - 8 VMs. Es gibt ca. 200 Clients, die aber Schwerpunktmässig nur einen Logonserver brauchen, das meiste läuft lokal auf den Clients ab.
Als VMs würden drei Server 2012 R2, zwei PFSense und noch ein bisschen Spielerei betrieben werden. Die Server sind als DC, Fileshare und System Center (SCCM, Endpoint Protection, SCVMM) gedacht. Die PFsense handeln zwei WAN Verbindungen und stellen diese via Squid zur Verfügung.
Windows Server 2012 Lizenzen sind vorhanden, also würde ich diese natürlich auch gerne nutzen. Budget hätte ich so 10-15k aktuell zur Verfügung. Failover wäre natürlich wünschenswert, ist aber kein KO Kriterium, das Ganze läuft in einer "semi-kritischen" Umgebung.
Variante 1)
HP ProLiant mit 2x Xeon 25xx oder 2640, 48GB Ram und lokalem Speicher, vier Gbit Ports.
Als Speicher habe ich gedacht an 4 x 600GB SAS 10k Platten als Raid10 für die VMs. Für das Host-OS entweder ein Raid1 mit 2 x 300GB SAS oder evtl. 2 SSDs.
Das Ganze dann zwei mal und via Hyper-V Replica "gespiegelt". Für das Replica würde ein NIC Port explizit genutzt werden, einer für Management und die anderen beiden per Teaming im LAN hängen.
Variante 2)
Ich habe noch zwei alte Server, die nicht alle VMs "auf einmal" stemmen können. Würde dann zusätzlich den oben genannten ProLiant holen und ein "Budget-iSCSI-Storage" á la QNAP.
Die VMs liegen dann auf dem Storage, im Normalfall laufen die VMs auf dem neuen HP ProLiant. SOllte der ausfallen, würde 50% der VMs auf einem alten Server weiterlaufen, 50% auf dem Anderen.
Das kann natürlich dann nur manuell gemacht werden inklusive einer gewissen Downtime.
Das QNAP wäre dann auch 4 x 600GB SAS 10k Platten als Raid10 bekommen. Die Anbindung wäre dann jeweils über einen GBit Port.
Finanziell würden beide Varianten pi mal Daumen ungefähr gleich sein. Aber was würdet ihr, technisch betrachtet, als die bessere Lösung betrachten?
Oder ist beides Quatsch und ihr habt was viel besseres im Sinn? Ich bin mir auch nicht ganz sicher, was die Festplatten angeht. Reichen 10k SAS Platten im RAID10 Verbund für vernünftige Performance der VMs? Sollte es am Ende ein iSCSI Storage werden, reicht da ein Gbit Port?
Besten Dank schonmal
Gruß
Tom
ich lese mich gerade ein bisschen in die Materie ein und wollte mal von euch wissen, was ihr von meinen Überlegungen haltet.
Geplant ist eine Hyper-V Umgebung für ca. 6 - 8 VMs. Es gibt ca. 200 Clients, die aber Schwerpunktmässig nur einen Logonserver brauchen, das meiste läuft lokal auf den Clients ab.
Als VMs würden drei Server 2012 R2, zwei PFSense und noch ein bisschen Spielerei betrieben werden. Die Server sind als DC, Fileshare und System Center (SCCM, Endpoint Protection, SCVMM) gedacht. Die PFsense handeln zwei WAN Verbindungen und stellen diese via Squid zur Verfügung.
Windows Server 2012 Lizenzen sind vorhanden, also würde ich diese natürlich auch gerne nutzen. Budget hätte ich so 10-15k aktuell zur Verfügung. Failover wäre natürlich wünschenswert, ist aber kein KO Kriterium, das Ganze läuft in einer "semi-kritischen" Umgebung.
Variante 1)
HP ProLiant mit 2x Xeon 25xx oder 2640, 48GB Ram und lokalem Speicher, vier Gbit Ports.
Als Speicher habe ich gedacht an 4 x 600GB SAS 10k Platten als Raid10 für die VMs. Für das Host-OS entweder ein Raid1 mit 2 x 300GB SAS oder evtl. 2 SSDs.
Das Ganze dann zwei mal und via Hyper-V Replica "gespiegelt". Für das Replica würde ein NIC Port explizit genutzt werden, einer für Management und die anderen beiden per Teaming im LAN hängen.
Variante 2)
Ich habe noch zwei alte Server, die nicht alle VMs "auf einmal" stemmen können. Würde dann zusätzlich den oben genannten ProLiant holen und ein "Budget-iSCSI-Storage" á la QNAP.
Die VMs liegen dann auf dem Storage, im Normalfall laufen die VMs auf dem neuen HP ProLiant. SOllte der ausfallen, würde 50% der VMs auf einem alten Server weiterlaufen, 50% auf dem Anderen.
Das kann natürlich dann nur manuell gemacht werden inklusive einer gewissen Downtime.
Das QNAP wäre dann auch 4 x 600GB SAS 10k Platten als Raid10 bekommen. Die Anbindung wäre dann jeweils über einen GBit Port.
Finanziell würden beide Varianten pi mal Daumen ungefähr gleich sein. Aber was würdet ihr, technisch betrachtet, als die bessere Lösung betrachten?
Oder ist beides Quatsch und ihr habt was viel besseres im Sinn? Ich bin mir auch nicht ganz sicher, was die Festplatten angeht. Reichen 10k SAS Platten im RAID10 Verbund für vernünftige Performance der VMs? Sollte es am Ende ein iSCSI Storage werden, reicht da ein Gbit Port?
Besten Dank schonmal
Gruß
Tom
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 253776
Url: https://administrator.de/contentid/253776
Ausgedruckt am: 26.11.2024 um 01:11 Uhr
6 Kommentare
Neuester Kommentar
Hi,
wenn du die Platten auslagers, würde ich ein FC SAN nehmen. Das Fluppt besser
Wir haben das bei uns mit 3 ESXI-Hosts laufen. Die greifen alle auf eine SAN wo ein großes RAID6 und ein kleineres RAID 5 läuft zu. Das ganze ist per FC angebunden. Dann hast du auch nicht das Bottleneck des GBit Netzwerkes
Je nach HW ist es teurer.
Tipp: Firewalls sollten auf einem separaten Host laufen.
Gruß
wenn du die Platten auslagers, würde ich ein FC SAN nehmen. Das Fluppt besser
Wir haben das bei uns mit 3 ESXI-Hosts laufen. Die greifen alle auf eine SAN wo ein großes RAID6 und ein kleineres RAID 5 läuft zu. Das ganze ist per FC angebunden. Dann hast du auch nicht das Bottleneck des GBit Netzwerkes
Je nach HW ist es teurer.
Tipp: Firewalls sollten auf einem separaten Host laufen.
Gruß
Hallo,
Zuerst: Firewalls auf separate Hardware - Bei 200 Clients eigentlich Pflicht (Sind schon Firewalls vorhanden??)
Shared Storage per GBit würde ich nicht empfehlen, bremst das ganze aus. Da ist die Anzahl der Platten im NAS ziemlich egal...
Zum Hyper-V Cluster:
Solange kein Redundanz da ist, macht das ganze in meinen Augen wenig Sinn (bricht der Storage/die Anbindung weg, wars das mit den gesamten VMs). Da wären ein gutes Disaster-Recovery (gerade bei nicht hochkritischen Anwendungen) und die entsprechenden Backups sinnvoller
Zur zweiten Möglichkeit:
Die Gbit Anbindung wird das ganze stark limitieren. Wenn du dich gegen ein Cluster entscheidest, warum nicht die SAS-Platten direkt in den Server? Shared Storage macht da meiner Meinung nach nur wenig Sinn.
Meine Möglichkeit:
1x kleine pfSense Firewall
1x kleiner DC ( den Server kann man auch gebraucht kaufen )
1x Hyper-V Server mit 4x SAS-Festplatten kaufen für die VMs (evtl. RAID5?)
1x Storage mit einem RAID1 für die Backups + eine vernünftige Backupsoftware
1x guten Support falls der Hyper-V Server ausfällt
Liebe Grüße,
Hyper-V
Zuerst: Firewalls auf separate Hardware - Bei 200 Clients eigentlich Pflicht (Sind schon Firewalls vorhanden??)
Shared Storage per GBit würde ich nicht empfehlen, bremst das ganze aus. Da ist die Anzahl der Platten im NAS ziemlich egal...
Zum Hyper-V Cluster:
Solange kein Redundanz da ist, macht das ganze in meinen Augen wenig Sinn (bricht der Storage/die Anbindung weg, wars das mit den gesamten VMs). Da wären ein gutes Disaster-Recovery (gerade bei nicht hochkritischen Anwendungen) und die entsprechenden Backups sinnvoller
Zur zweiten Möglichkeit:
Die Gbit Anbindung wird das ganze stark limitieren. Wenn du dich gegen ein Cluster entscheidest, warum nicht die SAS-Platten direkt in den Server? Shared Storage macht da meiner Meinung nach nur wenig Sinn.
Meine Möglichkeit:
1x kleine pfSense Firewall
1x kleiner DC ( den Server kann man auch gebraucht kaufen )
1x Hyper-V Server mit 4x SAS-Festplatten kaufen für die VMs (evtl. RAID5?)
1x Storage mit einem RAID1 für die Backups + eine vernünftige Backupsoftware
1x guten Support falls der Hyper-V Server ausfällt
Liebe Grüße,
Hyper-V