Partitionierung 4TB RAID10 Hyper-V Server 2008 - Win Server 2008 und SBS 2011
Hallo,
ich habe eine Frage zur Partitionierung 4TB RAID10 Hyper-V Server 2008 - Win Server 2008 und SBS 2011.
Hardware: leistungsstarker Server mit 4 x 2 TB HDD's
RAID: On-Board Software RAID10 (Adaptec)
Gewünschte Softwarekonfiguration: Hyper-V Server 2008 als Hypervisor. Darin SBS2011 als Hyper-V OS und Server 2008 als Hyper-V OS.
Das Mainboard verfügt anscheinend nicht über EFI, so dass ich nur von einer max. 2 TB Platte booten kann. Daher die Idee zu partitionieren und den Hyper-V Server auf 100GB, Win Server 2008 und SBS 2011 auf den Rest verteilen.
Ist die Konfiguration ok oder kann ich es besser machen?
Danke!
ich habe eine Frage zur Partitionierung 4TB RAID10 Hyper-V Server 2008 - Win Server 2008 und SBS 2011.
Hardware: leistungsstarker Server mit 4 x 2 TB HDD's
RAID: On-Board Software RAID10 (Adaptec)
Gewünschte Softwarekonfiguration: Hyper-V Server 2008 als Hypervisor. Darin SBS2011 als Hyper-V OS und Server 2008 als Hyper-V OS.
Das Mainboard verfügt anscheinend nicht über EFI, so dass ich nur von einer max. 2 TB Platte booten kann. Daher die Idee zu partitionieren und den Hyper-V Server auf 100GB, Win Server 2008 und SBS 2011 auf den Rest verteilen.
Ist die Konfiguration ok oder kann ich es besser machen?
Danke!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 168397
Url: https://administrator.de/contentid/168397
Ausgedruckt am: 25.11.2024 um 14:11 Uhr
9 Kommentare
Neuester Kommentar
ich würd noch eine (besser 2) kleine Platte(n) dazukaufen und dem Hypervisor eine eigene spendieren (Raid1)[...]
Jupp, in dieses Horn tute ich auch.
Wir haben -Learning by Doing- auch mehrere Hyper-V 2008R2 (Core) im Einsatz, die ersten Maschinen haben wir mit einem RAID10 aus SATA-Platten gebaut, was die Performance beim Betrieb mehrerer VMs deutlich gedrückt hat - SATA ist dafür also nicht wirklich geeignet.
Die nächste Generation Hyper-V-Hosts war dann mit einem RAID10-System aus SAS-Platten bestückt, was einen deutlichen Performance-Schub im Vergleich zu den SATA-Systemen brachte.
Aktuell bauen wir Hyper-V-Hosts nur noch mit SAS-Platten, dabei nutzen wir ein RAID1 für den Hyper-V 2008R2 Core als eigenes Array und ein zweites Array (RAID10) mit n Platten als Ablage für die VMs samt den VHDs.
Cheers,
jsysde
Nabend,
machen wir ähnlich. Haben zwar keine Hyper-V Hosts im Einsatz sondern ESXi. Die sind so konfiguriert dass der Host immer ein Raid 1 hat, hier meist 73GB 10k scsi Platten und die VMs liegen auch auf Raid1 Verbunden (146 - 300 GB). Je nach dem was die Dinger tun kommen 2-3 Gäste auf so einen Spiegel. Da das 73Gb Host Raid meist viel zu gross ist für den Host allein legen wir da noch hin und wieder die ISOs zur Installation mit drauf. Wir hatten schon 5 VMs auf einem Raid1 liegen (w2k3) und die liefen auch ohne Gemurre. Das waren allerdings nur ZweitDCs von unseren Aussenstellen. Updates wurden auf unterschiedliche Zeiten gestellt und gut war.
Wieviele Maschinen lasst ihr da laufen drauf?
MfG Th.
machen wir ähnlich. Haben zwar keine Hyper-V Hosts im Einsatz sondern ESXi. Die sind so konfiguriert dass der Host immer ein Raid 1 hat, hier meist 73GB 10k scsi Platten und die VMs liegen auch auf Raid1 Verbunden (146 - 300 GB). Je nach dem was die Dinger tun kommen 2-3 Gäste auf so einen Spiegel. Da das 73Gb Host Raid meist viel zu gross ist für den Host allein legen wir da noch hin und wieder die ISOs zur Installation mit drauf. Wir hatten schon 5 VMs auf einem Raid1 liegen (w2k3) und die liefen auch ohne Gemurre. Das waren allerdings nur ZweitDCs von unseren Aussenstellen. Updates wurden auf unterschiedliche Zeiten gestellt und gut war.
Die nächste Generation Hyper-V-Hosts war dann mit einem RAID10-System aus SAS-Platten bestückt, was einen deutlichen Performance-Schub im Vergleich zu den SATA-Systemen brachte.
Wieviele Maschinen lasst ihr da laufen drauf?
MfG Th.
Wieviele Maschinen lasst ihr da laufen drauf?
Unterschiedlich - auf meinem neuesten Hyper-V-Host laufen derzeit 15 Maschinen, davon mehrere Server und diverse durch P2V "errettete" XP-Clients. Allerdings sind das alles nur Maschinen, die nicht wirklich viel Performance brauchen: Backup-DC, WSUS-Server, SharePoint, WebServer etc.
In einem grossen Projekt eines Kunden haben wir uns auch auf max. drei VMs pro Hosts beschränkt, allerdings laufen da auch die SQL-Server virtualisiert und das hervorragend und sehr performant.
Cheers,
jsysde
P.S.:
Kleiner Tipp am Rande: Bei einem Hyper-V-Hostsystem kommt es meistens _NICHT!_ auf die CPU-Power an. Ein kleiner XEON reicht meist aus (gut, für SQL nun nicht, aber "mal eben so" müssen es nicht gleich die zwei dicksten XEONs sein), viel wichtiger ist der RAM und der Plattenplatz. Unter 72GB würd ich heute erst gar nicht mehr anfangen (von Spezialanforderungen mal abgesehen), einen Hyper-V-Host zu bauen. Und nicht vergessen: Wer Hyper-V als Hostsystem nutzt, _MUSS IMMER!_ einen DC aus echtem Blech haben!
Und nicht vergessen: Wer Hyper-V als Hostsystem nutzt, _MUSS IMMER!_ einen DC aus echtem Blech haben!
Gibts dafür ne Begründung?
In einem grossen Projekt eines Kunden haben wir uns auch auf max. drei VMs pro Hosts beschränkt, allerdings laufen da auch die SQL-Server virtualisiert und das hervorragend und sehr performant.
Wir haben testweise mal einen Dominoserver für > 500 User virtualisiert und der läuft jetzt besser als auf dem "harten Blech". Bei der harten Kiste war die Plattenkonstellation ... ich sag mal ... etwas ungünstig gewählt ^^
MfG Th.
> Und nicht vergessen: Wer Hyper-V als Hostsystem nutzt, _MUSS IMMER!_ einen DC aus echtem Blech haben!
Gibts dafür ne Begründung?
Gibts dafür ne Begründung?
Ja.
Hyper-V, sofern in deiner Domäne eingebunden, startet nur dann korrekt, wenn er nen lauffähigen DC im Netz vorfindet. Läuft dein einziger DC als VM auf dem einzigen Hyper-V-Host... da beisst sich die Katze selbst in den S-c-h-w-a-n-z (die Zensur ist aber empfindlich hier *g*).
Aber schon aus Gründen der Redundanz und der Ausfallsicherheit hat man ja sowieso mindestens zwei DCs im Netz...
Wir haben testweise mal einen Dominoserver für > 500 User virtualisiert und der läuft jetzt besser als auf dem
"harten Blech". Bei der harten Kiste war die Plattenkonstellation ... ich sag mal ... etwas ungünstig gewählt
"harten Blech". Bei der harten Kiste war die Plattenkonstellation ... ich sag mal ... etwas ungünstig gewählt
Das deckt sich mit unseren Erfahrungen - wobei man bei der Serverkonsolidierung ja meist nur "alte Kisten" zu ersetzen hat. Und selbst die lahmste Serverkiste, die seinerzeit mit nem P4 SingleCore und 1GB RAM (Boah, war der damals schnell!) in Betrieb genommen wurde, wird durch ein einfaches P2V plötzlich wieder performant, weil man ihr 4 virtuelle CPUs und 4GB RAM zuweist.
Cheers,
jsysde