Hyper-V Sizing Guide
Hey Folks,
einer meiner Kunden möchte sein RZ konsolidieren und sucht einen Sizing Guide für Hyper-V.
Dieser sollte enthalten:
Dimensionierung der neuen Umgebung, was kann virtualisiert werden, was nicht, etc.
Ich habe im Netz natürlich diverse Tipps zu CPU, RAM, Storage, etc gefunden, aber nicht wirklich ein Dokument/Tool, was alles abarbeitet.
Hat jemand von euch ein entsprechendes Werkzeug an der Hand?
Wie habt ihr - vor gefühlt 100 Jahren - eure IT konsolidiert?
Wie macht ihr das aktuell?
Gruß Manuel
einer meiner Kunden möchte sein RZ konsolidieren und sucht einen Sizing Guide für Hyper-V.
Dieser sollte enthalten:
Dimensionierung der neuen Umgebung, was kann virtualisiert werden, was nicht, etc.
Ich habe im Netz natürlich diverse Tipps zu CPU, RAM, Storage, etc gefunden, aber nicht wirklich ein Dokument/Tool, was alles abarbeitet.
Hat jemand von euch ein entsprechendes Werkzeug an der Hand?
Wie habt ihr - vor gefühlt 100 Jahren - eure IT konsolidiert?
Wie macht ihr das aktuell?
Gruß Manuel
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 224613
Url: https://administrator.de/forum/hyper-v-sizing-guide-224613.html
Ausgedruckt am: 02.04.2025 um 09:04 Uhr
7 Kommentare
Neuester Kommentar
Hallo Manuel,
ich glaube einen umfassenden Sizing Guide gibt es nicht. Da es praktisch jedesmal (sic!) wieder ein Einzelfall ist. Manche Kunden benötigen für 10 Programme bei 50 Leuten im Prinzip nur einen Mittelklasse vServer. Manche Firmen schaffen das bei 5 Leuten.
Erfahrung damit kann man glaub ich, nicht so einfach in einem Sizing Guide münzen.
Prinzipiell kann man aber anmerken, dass alles virtualisiert werden kann, dass keine direkte emulierbare, physische Anbindung benötigt oder zu Hardwarenah arbeitet.
Ja, das Werkzeug bin ich ;)
LG;
Christian
ich glaube einen umfassenden Sizing Guide gibt es nicht. Da es praktisch jedesmal (sic!) wieder ein Einzelfall ist. Manche Kunden benötigen für 10 Programme bei 50 Leuten im Prinzip nur einen Mittelklasse vServer. Manche Firmen schaffen das bei 5 Leuten.
Erfahrung damit kann man glaub ich, nicht so einfach in einem Sizing Guide münzen.
Prinzipiell kann man aber anmerken, dass alles virtualisiert werden kann, dass keine direkte emulierbare, physische Anbindung benötigt oder zu Hardwarenah arbeitet.
Ja, das Werkzeug bin ich ;)
LG;
Christian
Hallo,
es gibt z.B. von Dell "DpacK", das ist ein Monitor-Tool das die Last von einem Gesamtsystem für einen gewissen Zeitraum messen kann. Vergleichbares haben auch andere Hersteller und es gibt auch Bordmittel der Betriebssysteme oder Drittanbietertools die das können.
RAM und CPU sind ja recht erschwinglich geworden, heutzutage sind der Engpass oft die Platten-IOPS oder die Netzwerkbandbreite bei verteilten Systemen.
Wenn Du das für Kunden machst und die Umgebung nicht auswendig kennst, dann kommst Du um eine Messung eigentlich nie herum. Außer Du probierst es einfach mit totaler Überdimensionierung von Hosts und Storage. Das wäre nicht wirklich im Sinne des Kunden.
Weil es kann ja sein, dass der 100 Server hat, die quasi nix machen und alle auf einem 12-Kernsystem mit 200GB Ram laufen könnten. Oder der hat 10 Server die soviel zu tun haben und soviel Netzwerkbandbreite benötigen, dass Du das auf 2-3 Hosts mit viel mehr Kernen machen musst. Oder da laufen 3 Datenbankserver auf einem SAN das bereits jetzt überlastet ist und fast abraucht.
Woher soll hier jemand wissen wieviel IOPS und Rechenlast bei Deinem Kunden benötigt wird?
LG,
C
es gibt z.B. von Dell "DpacK", das ist ein Monitor-Tool das die Last von einem Gesamtsystem für einen gewissen Zeitraum messen kann. Vergleichbares haben auch andere Hersteller und es gibt auch Bordmittel der Betriebssysteme oder Drittanbietertools die das können.
RAM und CPU sind ja recht erschwinglich geworden, heutzutage sind der Engpass oft die Platten-IOPS oder die Netzwerkbandbreite bei verteilten Systemen.
Wenn Du das für Kunden machst und die Umgebung nicht auswendig kennst, dann kommst Du um eine Messung eigentlich nie herum. Außer Du probierst es einfach mit totaler Überdimensionierung von Hosts und Storage. Das wäre nicht wirklich im Sinne des Kunden.
Weil es kann ja sein, dass der 100 Server hat, die quasi nix machen und alle auf einem 12-Kernsystem mit 200GB Ram laufen könnten. Oder der hat 10 Server die soviel zu tun haben und soviel Netzwerkbandbreite benötigen, dass Du das auf 2-3 Hosts mit viel mehr Kernen machen musst. Oder da laufen 3 Datenbankserver auf einem SAN das bereits jetzt überlastet ist und fast abraucht.
Woher soll hier jemand wissen wieviel IOPS und Rechenlast bei Deinem Kunden benötigt wird?
LG,
C
Gut das wir den gleichen Kenntnisstand haben. *g*
Das ist genau die Art von Tool die ich meinte. Es geht ja darum einen Sammlungssatz von IO-Raten und Speicherkonsum zu erhalten. Wenn Du 50 Bestandsserver virtualisieren willst, macht es Sinn zu wissen was darauf wirklich im Laufe eines Tages /einer Woche los ist.
Von HP habe ich den Sizer for Server Virtualization gefunden, der macht nen schwer mächtigen Eindruck.
Das ist genau die Art von Tool die ich meinte. Es geht ja darum einen Sammlungssatz von IO-Raten und Speicherkonsum zu erhalten. Wenn Du 50 Bestandsserver virtualisieren willst, macht es Sinn zu wissen was darauf wirklich im Laufe eines Tages /einer Woche los ist.