Performanceprobleme VMware - Raid Controller schwach?
Moin Kollegen,
ich habe kurzfristig einen Fujitsu TX1330M1 Server mit Xeon E3-1220v3 und 32GB Ram auf den Tisch bekommen. Darauf läuft eine VMware mit 2x Windows Server 2016 (Domäne und Exchange) sowie einer Windows 10 Maschine. Verbaut ist zudem ein Fujitsu CP400i Raid-Controller (basierend auf LSI SAS3008), dieser werkelt da im Raid-5 mit 4 SAS-Platten.
Beim Arbeiten viel mir auf, dass dieser relativ langsam ist. Teilweise geht minutenlang gar nichts. Grundsätzlich läuft aber alles an den Clients, beim Administrieren sowie auf der Windows 10 VM merkt man aber immensive "Hänger".
Leider fehlt mir diesbezüglich ein bisschen Erfahrung. Ich habe laut VMware Leitfaden mit dem Kommando "esxtop" die Leistungsparamenter verglichen. CPU ist nicht voll ausgelastet, RAM-Werte sind OK und nicht überbelastet. Langsam sind jedoch die Festplattenwerte beim Lesen/Schreiben. Ich habe es zwar gerade nicht mehr vor mir, aber es waren immer unter 50MB/s. Ich vermute hier daher den Flaschenhals.
Ich könnte kurzfristig den Raid-Controller tauschen und die Maschinen zurückspielen. Das wäre also kein Problem. Laut Fujitsu-Datenblatt wäre hier der EP400i/EP420i mit Cache besser.
"CP400i is suitable for entry requirements. Higher performance is provided by PRAID EP400i and EP420i with 1GB and 2GB Write Back cache."
Leider fehlen mir im Bereich Raid-Controller mehr Erfahrungen. Könntet Ihr mir hier mal einen Tipp geben, ob es damit überhaupt verbessert werden könnte oder ob der bestehende auch rennen "müsste"?. Ich wüsste sonst nicht, welche Einstellungen zu diesen langsamen Verhalten führen.
Ich habe es jetzt erstmal grob beschrieben. Falls noch erweiterte technische Daten gebraucht werden, kann ich gerne nachliefern.
Besten Dank !
Viele Grüße
Trommel
ich habe kurzfristig einen Fujitsu TX1330M1 Server mit Xeon E3-1220v3 und 32GB Ram auf den Tisch bekommen. Darauf läuft eine VMware mit 2x Windows Server 2016 (Domäne und Exchange) sowie einer Windows 10 Maschine. Verbaut ist zudem ein Fujitsu CP400i Raid-Controller (basierend auf LSI SAS3008), dieser werkelt da im Raid-5 mit 4 SAS-Platten.
Beim Arbeiten viel mir auf, dass dieser relativ langsam ist. Teilweise geht minutenlang gar nichts. Grundsätzlich läuft aber alles an den Clients, beim Administrieren sowie auf der Windows 10 VM merkt man aber immensive "Hänger".
Leider fehlt mir diesbezüglich ein bisschen Erfahrung. Ich habe laut VMware Leitfaden mit dem Kommando "esxtop" die Leistungsparamenter verglichen. CPU ist nicht voll ausgelastet, RAM-Werte sind OK und nicht überbelastet. Langsam sind jedoch die Festplattenwerte beim Lesen/Schreiben. Ich habe es zwar gerade nicht mehr vor mir, aber es waren immer unter 50MB/s. Ich vermute hier daher den Flaschenhals.
Ich könnte kurzfristig den Raid-Controller tauschen und die Maschinen zurückspielen. Das wäre also kein Problem. Laut Fujitsu-Datenblatt wäre hier der EP400i/EP420i mit Cache besser.
"CP400i is suitable for entry requirements. Higher performance is provided by PRAID EP400i and EP420i with 1GB and 2GB Write Back cache."
Leider fehlen mir im Bereich Raid-Controller mehr Erfahrungen. Könntet Ihr mir hier mal einen Tipp geben, ob es damit überhaupt verbessert werden könnte oder ob der bestehende auch rennen "müsste"?. Ich wüsste sonst nicht, welche Einstellungen zu diesen langsamen Verhalten führen.
Ich habe es jetzt erstmal grob beschrieben. Falls noch erweiterte technische Daten gebraucht werden, kann ich gerne nachliefern.
Besten Dank !
Viele Grüße
Trommel
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 649606
Url: https://administrator.de/contentid/649606
Ausgedruckt am: 23.11.2024 um 08:11 Uhr
19 Kommentare
Neuester Kommentar
Moin Kollegen,
ServusLeider fehlen mir im Bereich Raid-Controller mehr Erfahrungen. Könntet Ihr mir hier mal einen Tipp geben, ob es damit überhaupt verbessert werden könnte oder ob der bestehende auch rennen "müsste"?. Ich wüsste sonst nicht, welche Einstellungen zu diesen langsamen Verhalten führen.
Ein Raid 10 würde da schon deutliche Besserungen mit sich bringen.Raid5 nutzt man eher als Datengrab und nicht für eine Exchange!
Grundsätzliche sollte der Raidcontroller für diese 3 VM überhaupt kein Problem sein. Selbst wenn dies nur SATA HDD wären.
Die alternativen Controller die du aufgezählt hast, bringen dir maximal etwas beim Schreiben. Aber all zu viel würde ich mir davon nicht versprechen.
Vor allem der Domain Controller wird ja eher Read-Performance benötigen.
Was fühlt sich den in der Windows VM den genau "langsam" an? Login? Outlook? Wenn sich in einer VM etwas ruckelig anfühlt, würde ich das jetzt erstmal pauschal nicht gleich, zumindest in diesem Fall, auf die DC und Exchange VM beziehen. Wenn du dieser wenig Ressourcen zugeteilt hast, kann diese von vorne herein schlecht laufen. Das bitte vorher mal ausschließen!
Ansonsten habe ich schon oft alte IBM M1215 und Dell Perc H310 auf die originale LSI-Firmware im IT-Mode geflasht:
https://www.servethehome.com/flash-lsi-sas-3008-hba-e-g-ibm-m1215-mode/
Sollte dann eigentlich auch mit deinem Fujitsu funktionieren. Aber das ist eher Bastelei. Deshalb keine Gewähr.
Vor allem der Domain Controller wird ja eher Read-Performance benötigen.
Was fühlt sich den in der Windows VM den genau "langsam" an? Login? Outlook? Wenn sich in einer VM etwas ruckelig anfühlt, würde ich das jetzt erstmal pauschal nicht gleich, zumindest in diesem Fall, auf die DC und Exchange VM beziehen. Wenn du dieser wenig Ressourcen zugeteilt hast, kann diese von vorne herein schlecht laufen. Das bitte vorher mal ausschließen!
Ansonsten habe ich schon oft alte IBM M1215 und Dell Perc H310 auf die originale LSI-Firmware im IT-Mode geflasht:
https://www.servethehome.com/flash-lsi-sas-3008-hba-e-g-ibm-m1215-mode/
Sollte dann eigentlich auch mit deinem Fujitsu funktionieren. Aber das ist eher Bastelei. Deshalb keine Gewähr.
Moin,
der Raid Controller kann nicht viel und hat kein Cache. Dein Setup im Raid 5 schafft max. eh nur ca. 300 Iops ohne den Verlust des Raid-Controllers einzubeziehen.
Wenn du auf Raid 10 wechselt, verlierst du 2 TB nutzbare Kapazität und gewinnst 50% Iops:
RAID Performance Calculator.
Wunder erwarten würde ich mir davon auf keinen Fall.
Bei Tier1 Storage basierend auf wenigen HDD-Spindeln und Onboard-Raid (dann auch noch 5) sind Probleme vorprogrammiert.
Bevor zu viel Zeit investiert wird, könnte man prüfen, ob ein SSD Raid1 mit an den Controller gehängt und die intensivsten Sachen dort drüber laufen gelassen werden können.
Gruß
Grinskeks
der Raid Controller kann nicht viel und hat kein Cache. Dein Setup im Raid 5 schafft max. eh nur ca. 300 Iops ohne den Verlust des Raid-Controllers einzubeziehen.
Wenn du auf Raid 10 wechselt, verlierst du 2 TB nutzbare Kapazität und gewinnst 50% Iops:
RAID Performance Calculator.
Wunder erwarten würde ich mir davon auf keinen Fall.
Bei Tier1 Storage basierend auf wenigen HDD-Spindeln und Onboard-Raid (dann auch noch 5) sind Probleme vorprogrammiert.
Bevor zu viel Zeit investiert wird, könnte man prüfen, ob ein SSD Raid1 mit an den Controller gehängt und die intensivsten Sachen dort drüber laufen gelassen werden können.
Gruß
Grinskeks
Zitat von @tech-flare:
Zumal die genannten Seagate Exos 3,5 SAS auch nur 7.200 U/min drehen.
Ansonsten habe ich schon oft alte IBM M1215 und Dell Perc H310 auf die originale LSI-Firmware im IT-Mode geflasht:
Der Flaschenhals ist aber eher das Raidi 5. Besonders in Verbindung mit einem Exchange Server.Zumal die genannten Seagate Exos 3,5 SAS auch nur 7.200 U/min drehen.
Darum geht es nicht. Bitte alle Posts richtig lesen!
Der IT-Mode würde nur Sinn machen wenn er auf SSD wechselt. Dann kann er diese weiterhin an dem Controller betreiben und direkt an die VM durchreichen. Der Controller kann im RAID kein Trim, da schreddert man sich die SSD. Er kann sich somit den ganzen Raid5-Blödsinn auf Spindeln sparen.
So könnte er relativ kostengünstig einen ordentlichen Performance-Schub heraus holen.
Hallo,
- VMware
- Windows Server 2016 DC
- Windows Server 2016 Exchange
- Windows 10 (Wenn Du auf die 10er mit RDP zugreifst, dann brauchst Du 'ne VDI Lizenz!)
Was ist mit dem Fileserver? Läuft der auf dem DC oder Exchange?
Da würde ich jetzt schon von einer Überbuchung des Systems ausgehen. Sieh Dir unbedingt die zugeordneten CPUs an!
Den DC kann man ja noch mit 1 Core laufen lassen. Der Exchange frist mehr, vor allem RAM und Festplatten Ressourcen. Da bist Du hier schon ziemlich knapp bemessen. Auch der Raid-Controller braucht CPU Ressourcen!
Beim Arbeiten viel mir auf, dass dieser relativ langsam ist. Teilweise geht minutenlang gar nichts. Grundsätzlich läuft aber alles an den Clients, beim Administrieren sowie auf der Windows 10 VM merkt man aber immensive "Hänger".
Bei der Auswahl des Prozessors und den Platten ist das bei 3VMs nicht so ungewöhnlich.
Wenn es nach mir ginge, würde ich die Win10 rausschmeißen.
(Wahrscheinlich wurde das System mal ohne die Win10 geplant und in Betrieb genommen. Die 10er kam dann wohl als "Notlösung" dazu.)
VMware braucht ja auch Ressourcen, damit es läuft!
Grobe Rechnung:
1 CPU mit 8GB für den DC
2 CPU mit 16 GB für den Exchange (mehr wäre schöner gewesen)
1 CPU mit 8GB für Win10
=> 4 CPUs und 32GB
Und was soll dann noch für VMware übrig bleiben, welches die Instanzen managed? Da braucht man auch noch CPU und RAM!
Geht also nur mit Überbuchung. Das bedeutet, erst wird der Job von der einen Instanz abgearbeitet, und dann kann die nächste weitermachen.
In der Zwischenzeit? Warten!
Leider fehlt mir diesbezüglich ein bisschen Erfahrung. Ich habe laut VMware Leitfaden mit dem Kommando "esxtop" die Leistungsparamenter verglichen. CPU ist nicht voll ausgelastet, RAM-Werte sind OK und nicht überbelastet. Langsam sind jedoch die Festplattenwerte beim Lesen/Schreiben. Ich habe es zwar gerade nicht mehr vor mir, aber es waren immer unter 50MB/s. Ich vermute hier daher den Flaschenhals.
Ich vermute den Flaschenhals bei RAM und CPUs.
Um das Ding schneller zu machen, musst Du schon recht viel basteln. (Dabei bleibt das 32GB RAM-Limit.) Ein Raid-Controller allein hilft nicht. Die Einkaufsliste ist aber auch nicht ohne:
- CPU
- SSDs
- RAID-Controller
Und der ganze Zeit-Aufwand.
Ersetze die Win10 VM lieber gegen einen richtigen PC und schmeiße die 10er VM runter. (Du kannst ja mal testweise die 10er deaktivieren und die Ressourcen den Server-VM zuteilen. Und dann testen.)
Oder, bei einem 5-6 Jahre alten Server kann man auch mal wieder an etwas neues denken. (Dann aber mit mehr Cores, RAM und SSD-Basis.)
Gruß
its
ich habe kurzfristig einen Fujitsu TX1330M1 Server mit Xeon E3-1220v3 und 32GB Ram auf den Tisch bekommen.
Also eine 4-Kern-CPU ohne HT.Darauf läuft eine VMware mit 2x Windows Server 2016 (Domäne und Exchange) sowie einer Windows 10 Maschine. Verbaut ist zudem ein Fujitsu CP400i Raid-Controller (basierend auf LSI SAS3008), dieser werkelt da im Raid-5 mit 4 SAS-Platten.
Also auf vier Kernen laufen also- VMware
- Windows Server 2016 DC
- Windows Server 2016 Exchange
- Windows 10 (Wenn Du auf die 10er mit RDP zugreifst, dann brauchst Du 'ne VDI Lizenz!)
Was ist mit dem Fileserver? Läuft der auf dem DC oder Exchange?
Da würde ich jetzt schon von einer Überbuchung des Systems ausgehen. Sieh Dir unbedingt die zugeordneten CPUs an!
Den DC kann man ja noch mit 1 Core laufen lassen. Der Exchange frist mehr, vor allem RAM und Festplatten Ressourcen. Da bist Du hier schon ziemlich knapp bemessen. Auch der Raid-Controller braucht CPU Ressourcen!
Das müssten Seagate Exos 3,5" 2TB sein. Die genauen Modelle müsste ich aber noch nachforschen.
Die laufen nur mit 7.200 U/min. Nicht gerade die schnellsten. Die kann schon alleine der Exchange stressen.Beim Arbeiten viel mir auf, dass dieser relativ langsam ist. Teilweise geht minutenlang gar nichts. Grundsätzlich läuft aber alles an den Clients, beim Administrieren sowie auf der Windows 10 VM merkt man aber immensive "Hänger".
Wenn es nach mir ginge, würde ich die Win10 rausschmeißen.
(Wahrscheinlich wurde das System mal ohne die Win10 geplant und in Betrieb genommen. Die 10er kam dann wohl als "Notlösung" dazu.)
VMware braucht ja auch Ressourcen, damit es läuft!
Grobe Rechnung:
1 CPU mit 8GB für den DC
2 CPU mit 16 GB für den Exchange (mehr wäre schöner gewesen)
1 CPU mit 8GB für Win10
=> 4 CPUs und 32GB
Und was soll dann noch für VMware übrig bleiben, welches die Instanzen managed? Da braucht man auch noch CPU und RAM!
Geht also nur mit Überbuchung. Das bedeutet, erst wird der Job von der einen Instanz abgearbeitet, und dann kann die nächste weitermachen.
In der Zwischenzeit? Warten!
Leider fehlt mir diesbezüglich ein bisschen Erfahrung. Ich habe laut VMware Leitfaden mit dem Kommando "esxtop" die Leistungsparamenter verglichen. CPU ist nicht voll ausgelastet, RAM-Werte sind OK und nicht überbelastet. Langsam sind jedoch die Festplattenwerte beim Lesen/Schreiben. Ich habe es zwar gerade nicht mehr vor mir, aber es waren immer unter 50MB/s. Ich vermute hier daher den Flaschenhals.
Ich könnte kurzfristig den Raid-Controller tauschen und die Maschinen zurückspielen. Das wäre also kein Problem. Laut Fujitsu-Datenblatt wäre hier der EP400i/EP420i mit Cache besser.
"CP400i is suitable for entry requirements. Higher performance is provided by PRAID EP400i and EP420i with 1GB and 2GB Write Back cache."
Leider fehlen mir im Bereich Raid-Controller mehr Erfahrungen. Könntet Ihr mir hier mal einen Tipp geben, ob es damit überhaupt verbessert werden könnte oder ob der bestehende auch rennen "müsste"?. Ich wüsste sonst nicht, welche Einstellungen zu diesen langsamen Verhalten führen.
Der Raid-Controller ist hier auch so langsam, da einfach zu wenig CPU-Ressourcen für das System bereit stehen. Aber mehr als einen E3-1275 V3 wirst Du hier wohl nicht verbauen können. Der hat zumindest 8 Threads, was leider nicht 8 echte Kerne ersetzt, aber ein wenig hilft das. Leider ist der RAM auch schon maximal ausgebaut. Die lagsamen Festplatten würde ich normalerweise gegen SSDs tauschen, aber der Controller kann wohl im RAID kein TRIM. Damit würde man sich die SSDs recht schnell schreddern."CP400i is suitable for entry requirements. Higher performance is provided by PRAID EP400i and EP420i with 1GB and 2GB Write Back cache."
Leider fehlen mir im Bereich Raid-Controller mehr Erfahrungen. Könntet Ihr mir hier mal einen Tipp geben, ob es damit überhaupt verbessert werden könnte oder ob der bestehende auch rennen "müsste"?. Ich wüsste sonst nicht, welche Einstellungen zu diesen langsamen Verhalten führen.
Um das Ding schneller zu machen, musst Du schon recht viel basteln. (Dabei bleibt das 32GB RAM-Limit.) Ein Raid-Controller allein hilft nicht. Die Einkaufsliste ist aber auch nicht ohne:
- CPU
- SSDs
- RAID-Controller
Und der ganze Zeit-Aufwand.
Ersetze die Win10 VM lieber gegen einen richtigen PC und schmeiße die 10er VM runter. (Du kannst ja mal testweise die 10er deaktivieren und die Ressourcen den Server-VM zuteilen. Und dann testen.)
Oder, bei einem 5-6 Jahre alten Server kann man auch mal wieder an etwas neues denken. (Dann aber mit mehr Cores, RAM und SSD-Basis.)
Gruß
its
Zitat von @IT-Spezi:
Da würde ich jetzt schon von einer Überbuchung des Systems ausgehen. Sieh Dir unbedingt die zugeordneten CPUs an!
Da würde ich jetzt schon von einer Überbuchung des Systems ausgehen. Sieh Dir unbedingt die zugeordneten CPUs an!
Grobe Rechnung:
1 CPU mit 8GB für den DC
2 CPU mit 16 GB für den Exchange (mehr wäre schöner gewesen)
1 CPU mit 8GB für Win10
=> 4 CPUs und 32GB
Und was soll dann noch für VMware übrig bleiben, welches die Instanzen managed? Da braucht man auch noch CPU und RAM!
Geht also nur mit Überbuchung. Das bedeutet, erst wird der Job von der einen Instanz abgearbeitet, und dann kann die nächste
Servus,1 CPU mit 8GB für den DC
2 CPU mit 16 GB für den Exchange (mehr wäre schöner gewesen)
1 CPU mit 8GB für Win10
=> 4 CPUs und 32GB
Und was soll dann noch für VMware übrig bleiben, welches die Instanzen managed? Da braucht man auch noch CPU und RAM!
Geht also nur mit Überbuchung. Das bedeutet, erst wird der Job von der einen Instanz abgearbeitet, und dann kann die nächste
Die Aussage kann ich so aber nicht zu 100% unterschreiben, denn Bei Virtualisierung ist es ja gerade der Sinn zu überbuchen, da sie sich die CPU die meiste Zeit sonst „langweilt“. Man nur wissen wie man dies konfiguriert und viele Cores pro VM sind nicht immer gut.
VMware selbst gibt eine problemloses vCPU-Overcommitment von bis zu 3:1 an.
Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Natürlich spielt die Prozessorgeneration, SingleCore Takt und HT auch in die Rechnung mit rein.
Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
PS.: für einen DC in so einer Umgebung reichen auch locker 4GB RAM
Zitat von @tech-flare:
Die Aussage kann ich so aber nicht zu 100% unterschreiben, denn Bei Virtualisierung ist es ja gerade der Sinn zu überbuchen, da sie sich die CPU die meiste Zeit sonst „langweilt“.
Das Thema hatten wir hier im Forum schon mehrmals. Sinnlose Überbuchung = langsames SystemDie Aussage kann ich so aber nicht zu 100% unterschreiben, denn Bei Virtualisierung ist es ja gerade der Sinn zu überbuchen, da sie sich die CPU die meiste Zeit sonst „langweilt“.
Wenn Du das bei mehreren Apache-Servern machst, wo fast nichts drauf läuft, dann vielleicht. Dann macht das Sinn.
Aber sicherlich nicht bei so einer Windows-Server-Struktur.
Man nur wissen wie man dies konfiguriert und viele Cores pro VM sind nicht immer gut.
Bei einer Firebird-Datenbank würde die wohl nur auf einem Core laufen. Da zählt nur Single-Core-Performance.Aber sieh Dir mal hier das Szenario an! Schon alleine wegen des geringen RAM ist der hier nur am swappen!
VMware selbst gibt eine problemloses vCPU-Overcommitment von bis zu 3:1 an.
Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Die geben das für VMs mit (extrem) niedriger Last an. Hier ist Last auf dem System.Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Natürlich spielt die Prozessorgeneration, SingleCore Takt und HT auch in die Rechnung mit rein.
Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Was sind denn das für VMs? Sicherlich keine VDIs oder 250 Windows Server mit Exchange. Ich vermute mal (das sehr effiziente) Linux mit nur ein paar Web-Prozessen. Also absolut nicht mit dem Szenario des TO zu vergleichen.Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Oder würden wir das mal nach Deinem Schema umrechnen auf Windows.
4x3100MHz, dann bleiben 124 Einheiten á 100MHz (absolute Minimaleinheit bei VMware), davon zieht sich der Host auch einiges.
ESXi genehmigt sich neben dem Host-Betrieb (1,5GB) auch noch ein wenig RAM pro aktiver VM.
Hmm...
Klingt ein wenig nach schönrechnen und wundersame Vermehrung.
Hälste 10€ vorm Spiegel, dann sind's schon 20. Runtergfallen, schon 40, ...
PS.: für einen DC in so einer Umgebung reichen auch locker 4GB RAM
Und das machen leider noch viel zu viele. Mein Motto ist da eher ein DC ist ein DC ist ein DC... und nix weiter!
ESXi = 2GB (minimum), 1 Core
DC = 4GB (minimum), 1 Core
Exchange = 16GB (praktisches minimum), 2 Core
Wenn weitere Dienste auf den Servern laufen, dann muss auch mehr RAM zugeordnet werden.
Durch die zusätzliche Win10 VM fängt das überbuchen an.
Und selbst bei einem frischen Win10 laufen mehr als 200 Prozesse. Eine Win10 VM mit nur 2GB würde einfach langsam laufen.
Gruß
its
Das Thema hatten wir hier im Forum schon mehrmals. Sinnlose Überbuchung = langsames System
Die Rede ist nicht von sinnlosen Überbuchengen....sondern von effektiven. Daher auch meine Aussage "viele Cores pro VM sind nicht immer gut."Wenn Du das bei mehreren Apache-Servern machst, wo fast nichts drauf läuft, dann vielleicht. Dann macht das Sinn.
Aber sicherlich nicht bei so einer Windows-Server-Struktur.
Ok....dann scheint hier meine gesamte Infrastruktur keinen sinn zu haben Aber sicherlich nicht bei so einer Windows-Server-Struktur.
VMware selbst gibt eine problemloses vCPU-Overcommitment von bis zu 3:1 an.
Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Die geben das für VMs mit (extrem) niedriger Last an. Hier ist Last auf dem System.Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Natürlich spielt die Prozessorgeneration, SingleCore Takt und HT auch in die Rechnung mit rein.
Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Was sind denn das für VMs? Sicherlich keine VDIs oder 250 Windows Server mit Exchange. Ich vermute mal (das sehr effiziente) Linux mit nur ein paar Web-Prozessen. Also absolut nicht mit dem Szenario des TO zu vergleichen.Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Nein.. Nicht nur Linux. Der Anteil liegt bei ca 90/10 (90% Windows und 10% Linux )
Aber auf dem System laufen auch insgesamt 14 RDS Hosts, 4 Fileserver, 1 SQL Server für ein MES System usw.
Grundsätzlich aber pro VM nur ein Dienst / Software (Fileserver, Telefonsoftware, WSUS usw...), wenn möglich
Ja ich habe hier 8 VMware Hosts mit je 2 Sockets. Diese sind aber alle "überbucht". Wenn ich deine 1:1 Regel befolgen würde, bräuchte ich ca. 15 VMHost Server.
Oder würden wir das mal nach Deinem Schema umrechnen auf Windows.
4x3100MHz, dann bleiben 124 Einheiten á 100MHz (absolute Minimaleinheit bei VMware), davon zieht sich der Host auch einiges.
4x3100MHz, dann bleiben 124 Einheiten á 100MHz (absolute Minimaleinheit bei VMware), davon zieht sich der Host auch einiges.
Nur als Beispiel....hier habe hier Windows Server, welche jetzt gerade mit 63MhZ sich langweilen....weitere mit 127 Mhz, der IGEL UMS Server auf Windows brauch auch im Moment nur 150 Mhz, da dieser nur beim booten von ThinClients angefragt wird.
Ich bleibe bei der Meinung, dass bei ihm der Flaschenhals das langsame Raid5 mit HDD ist.
Beim RAM gebe ich dir Recht. Da wären 64 GB angebracht.
Gruß
Zitat von @tech-flare:
Dann bitte ich Dich im Namen des TO, dass Du mal hier eine effektive Aufteilung nennst, damit seine Maschine deutlich flotter ist.Das Thema hatten wir hier im Forum schon mehrmals. Sinnlose Überbuchung = langsames System
Die Rede ist nicht von sinnlosen Überbuchengen....sondern von effektiven. Daher auch meine Aussage "viele Cores pro VM sind nicht immer gut."Wenn Du das bei mehreren Apache-Servern machst, wo fast nichts drauf läuft, dann vielleicht. Dann macht das Sinn.
Aber sicherlich nicht bei so einer Windows-Server-Struktur.
Ok....dann scheint hier meine gesamte Infrastruktur keinen sinn zu haben Aber sicherlich nicht bei so einer Windows-Server-Struktur.
Dann nein! Dann erzählst Du uns hier etwas vom Pferd.
VMware selbst gibt eine problemloses vCPU-Overcommitment von bis zu 3:1 an.
Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Bei 4:1 - 5:1 kann es zu Performance Engpässen kommen und ab 5:1 wird es schwierig.
Die geben das für VMs mit (extrem) niedriger Last an. Hier ist Last auf dem System.
Definitiv geben sie die 3:1 nicht nur für extrem niedrige VM Lasten an. Denn dann hätte Virtualisierung fast keinen Sinn.Wenn Du VMs mit hoher Last und Prioritöt hast, dann müssen die VMs mit niedriger Priorität einfach warten. Im schlimmsten Fall minutenlang.
Hier fragt der TO allerdings, wieso das hier so langsam ist. Auch durch Virtualisierung kannst Du den Prozessor und die Festplatten nicht schneller machen. Du kannst nur die vorhandene Hardware besser ausnutzen.
Natürlich spielt die Prozessorgeneration, SingleCore Takt und HT auch in die Rechnung mit rein.
Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Was sind denn das für VMs? Sicherlich keine VDIs oder 250 Windows Server mit Exchange. Ich vermute mal (das sehr effiziente) Linux mit nur ein paar Web-Prozessen. Also absolut nicht mit dem Szenario des TO zu vergleichen.Würde man aber deine Rechnung von 1:1 zu befolgen, hätte ich hier mit meinen 250 VM ein ziemliches Problem
Nein.. Nicht nur Linux. Der Anteil liegt bei ca 90/10 (90% Windows und 10% Linux )
Aber auf dem System laufen auch insgesamt 14 RDS Hosts, 4 Fileserver, 1 SQL Server für ein MES System usw.
Grundsätzlich aber pro VM nur ein Dienst / Software (Fileserver, Telefonsoftware, WSUS usw...), wenn möglich
Ja ich habe hier 8 VMware Hosts mit je 2 Sockets. Diese sind aber alle "überbucht". Wenn ich deine 1:1 Regel befolgen würde, bräuchte ich ca. 15 VMHost Server.
Das mit der Überbuchung klappt dann aber nur, weil Du so viele Ressourcen hast und nicht alle gleichzeitig das System auslasten. Würde ein Drittel als Power-User die Kisten voll auslasten, dann hättest Du auch ein Problem.
Der TO hat aber nur einen einzigen Quad-Core mit 32GB.
Du vergleichst hier Äpfel mit Birnen oder Mofa mit Sportwagen. Aber wirklich hilfreich ist das nicht!
Oder würden wir das mal nach Deinem Schema umrechnen auf Windows.
4x3100MHz, dann bleiben 124 Einheiten á 100MHz (absolute Minimaleinheit bei VMware), davon zieht sich der Host auch einiges.
4x3100MHz, dann bleiben 124 Einheiten á 100MHz (absolute Minimaleinheit bei VMware), davon zieht sich der Host auch einiges.
Nur als Beispiel....hier habe hier Windows Server, welche jetzt gerade mit 63MhZ sich langweilen....weitere mit 127 Mhz, der IGEL UMS Server auf Windows brauch auch im Moment nur 150 Mhz, da dieser nur beim booten von ThinClients angefragt wird.
Ich bleibe bei der Meinung, dass bei ihm der Flaschenhals das langsame Raid5 mit HDD ist.
Beim RAM gebe ich dir Recht. Da wären 64 GB angebracht.
Mach mal einen konstruktiven Vorschlag, wie der TO die VMs einstellen soll, damit alle drei VMs auch richtig flott laufen.
Nur den Raid-Controller zu tauschen, wird hier auch nicht helfen. Die Platten werden auch unter einem anderen Controller ständig swappen und die Performance nach unten ziehen. Zusätzlich wartet der Controller nur auf die ausgelastete CPU.
Wieviele virtuelle CPUs und wieviel RAM hättest Du denn auf deinen Kisten für so ein Szenario reserviert?
Für einen DC, Exchange, Win10, wahrscheinlich auf einer Kiste noch mit Datenbank und File-Diensten. Poweruser mit hoher Priorität. Auch nur 4 vCPUs und 30GB insgesamt?
Gruß
its
Zitat von @IT-Spezi:
Hab ich bereits mehrfach.....Raid5 gegen ein Raid10 mit 4 HDD ersetzen, alles andere ist Perlen vor die Säue werfen bei diesem Mini System. Das Raid5 ist der Flaschenhals und du hast dann angefangen, dass er doch zu viele VM für die 4 Kerne hat. (Über die Win10 VM kann man wirklich diskutieren)Zitat von @tech-flare:
Dann bitte ich Dich im Namen des TO, dass Du mal hier eine effektive Aufteilung nennst, damit seine Maschine deutlich flotter ist.Das Thema hatten wir hier im Forum schon mehrmals. Sinnlose Überbuchung = langsames System
Die Rede ist nicht von sinnlosen Überbuchengen....sondern von effektiven. Daher auch meine Aussage "viele Cores pro VM sind nicht immer gut."Mach mal einen konstruktiven Vorschlag, wie der TO die VMs einstellen soll, damit alle drei VMs auch richtig flott laufen.
Ich sage es gern nochmal ! Raid5 weg und ein Raid10 daraus machen. Da laufen auch die 4(3) VM bedeutend besser. Dies habe ich selbst schon so ähnlich umgesetzt.Wieviele virtuelle CPUs und wieviel RAM hättest Du denn auf deinen Kisten für so ein Szenario reserviert?
Da der TO nichts darüber sagt, ob er den DC als FS missbraucht, oder wie viel der EX leisten muss, kann man hier nur raten.Ich habe bei jemand anders aber ein System am laufen, welches auch auf 4 HDD im Raid10 läuft und dort ein DC + EX aktiv ist (FS stellt dort ein QNAP). Insgsamt hat das System auch nur 32 GB RAM.
Moin Mädels…...
@tech-flare & @IT-Spezi, das ihr beide virtualisierungs helden seit wissen wir ja, was ihr aber wohl vergessen habt ist, das blech mit
Xeon E3-1220v3 und 32GB Ram, einen Raid Controller ohne Cache, mit einem Raid 5 (7k2 Spindeln) läuft... da gibbet nix zu optimieren!
alleine der Controller macht es unmöglich... da wird nix schneller oder bessser!
VMware und Vm´s lassen die kiste ordentlich schwitzen...
Frank
@tech-flare & @IT-Spezi, das ihr beide virtualisierungs helden seit wissen wir ja, was ihr aber wohl vergessen habt ist, das blech mit
Xeon E3-1220v3 und 32GB Ram, einen Raid Controller ohne Cache, mit einem Raid 5 (7k2 Spindeln) läuft... da gibbet nix zu optimieren!
alleine der Controller macht es unmöglich... da wird nix schneller oder bessser!
VMware und Vm´s lassen die kiste ordentlich schwitzen...
Frank
@Vision2015
Genau das meine ich ja. Das habe ich mehrmals oben geschrieben. Die Kiste ist (fast) maximal ausgebaut und hat nur 4 Kerne. Da bleibt nicht viel Spielraum. Der Controller macht es auch nicht besser.
Meine Meinung habe ich deutlich ausgedrückt:
Gruß
its
Genau das meine ich ja. Das habe ich mehrmals oben geschrieben. Die Kiste ist (fast) maximal ausgebaut und hat nur 4 Kerne. Da bleibt nicht viel Spielraum. Der Controller macht es auch nicht besser.
Und hier sind nur 7k Festplatten dran. Nicht 10er oder 15er!
Nur @tech-flare meinte, durch Virtualisierung wären hier ein Wunder möglich. Und setzt die Vorteile und Möglichkeiten einer Serverfarm mit so einer kleinen Kiste gleich.VMware und Vm´s lassen die kiste ordentlich schwitzen...
Sag ich doch!Meine Meinung habe ich deutlich ausgedrückt:
Bei einem 5-6 Jahre alten Server kann man auch mal wieder an etwas neues denken. (Dann aber mit mehr Cores, RAM und SSD-Basis.)
Gruß
its
Zitat von @Trommel:
Es ist momentan auch leider/noch nicht möglich, hier einen neuen Server hinzustellen.
Schade, aber nach mehr als 5 Jahren Laufzeit sollten die darüber ernsthaft nachdenken!Es ist momentan auch leider/noch nicht möglich, hier einen neuen Server hinzustellen.
Bezüglich dem RAID nehme ich die Tipps gerne an. Ich habe das auch nicht eingerichtet oder konzeptioniert. Gerne würde ich versuchen, auf ein RAID 10 zu gehen. Das liegt aber nicht -nur- in meiner Hand.
Wenn die 10er VM aus ist, geht es einigermaßen.
Ein Zeichen dafür, dass die 10er VM schon zuviel für das System ist.Wenn die 10er VM aus ist, geht es einigermaßen.
Die VMs sind alle so eingestellt, dass Sie alle Cores zugewiesen bekommen haben.
Der DC braucht sicherlich nicht alle Cores, wenn der sonst nichts macht.Der RAM ist etwas überlappt (ich meine so ca. 4 oder 8GB), die VMs waren beim RAM aber auch bisher nie voll ausgelastet und daher war das bisher auch kein Problem.
Trotzdem solltest Du hier mal ansetzen. Wenn Du 40GB zuteilst, wo nur 32 GB (abzgl 2GB für den Host) sind, dann kann das bei einer Leistungsspitze zu Problemen führen.Zum Abschluss blieb mir also die Feststellung, dass trotz der technischen Limitierung des Servers eigentlich CPU und RAM meiner Meinung nach, auszuschließen waren. Der Flaschenhals in diesem Setup muss also in Richtung Festplatten bzw. dem RAID-Controller gehen. Das war eben meine Vermutung. Danke auf jeden Fall für die zahlreichen und unterschliedlichen Meinungen.
Die 7k2-Festplattten sind sicherlich ein Problem. Noch mehr als der Controller. SSDs würden am meisten bringen, würden aber durch den Controller (und den von Dir genanten Nachfolger) in kürzester Zeit schrotten. Raid10 wäre mit den alten Platten schneller als Raid5.Die Windows 10 VM wird auch demnächst ausgelagert.
Da das testweise deaktivieren der 10er VM ja einen positiven Effekt hatte, ist das sicherlich sinnvoll. Dadürch würden wohl auch die Überlappungen vermieden.Zudem wird nun, unabhängig von mir, trotzdem der Controller getauscht.
Wenn Du schon einen neuen Controller einsetzt, dann denke bitte auch an eine BBU! Gerade, wenn der Cache genutzt werden soll. Sonst kann das in Fällen eines Stromausfalls zu argen Problemen führen.https://www.thomas-krenn.com/de/wiki/Cache_Einstellungen_von_RAID_Contro ...
Ich kann ja anschließend noch mal mitteilen, wie es läuft.
Gerne.Gruß
its