akcent
Goto Top

Neuer HyperV mit zwei VM und extrem langsam

Hallo,

ich habe hier einen neuen Server mit dieser Konfig
- Windows 2019
- 2 VM's Windows 2019 (je 16 GB RAM, 4 CPU's)
- XEON E-2124 CPU
- 48 GB RAM
- 2x 2TB SAS 7.2k Platten (RAID1)
- LSI MEGA RAID Controller
- 2 LAN-Port über den Servermanager als dyna. TEAM konfiguriert

26-09-_2019_16-49-52

- GDATA Business Client (VM-Dateien ausgeschlossen)

Die beiden Windows 2019 VM's machen eigentlich nur Fileservices. Es gibt keine Domäne

Das Problem ist, daß der Zugriff auf die Daten sehr langsam ist (Zuvor stand da ein alter WIndows 7 PC als Server).

Hat ggf. jemand eine Idee warum der Zugriff so extrem lansam ist?
Die Integrationsdienste sind in den VM Einstellungen alle aktiviert, weiß aber nicht ob die sonst noch irgendwo zu aktivieren.

Gruß, Herry

Content-ID: 498641

Url: https://administrator.de/forum/neuer-hyperv-mit-zwei-vm-und-extrem-langsam-498641.html

Ausgedruckt am: 23.12.2024 um 12:12 Uhr

rzlbrnft
rzlbrnft 26.09.2019 um 17:26:38 Uhr
Goto Top
War recht ausführlich bis auf die NIC. Es gibt ein paar Karten die mit HyperV so ihre Problemchen haben, z.B. etliche Modelle von Broadcom.
Den Fall hatte ich schonmal, die wollten einfach nicht performant Daten bereitstellen. Nach einem Austausch gegen eine Intel Server NIC rannte dann alles problemlos.

Oder zweite Option, die Festplatten sind noch am Raid Wiederaufbau oder eine davon tut nicht so wie sie soll.
Akcent
Akcent 26.09.2019 um 17:29:42 Uhr
Goto Top
Zitat von @rzlbrnft:

War recht ausführlich bis auf die NIC. Es gibt ein paar Karten die mit HyperV so ihre Problemchen haben, z.B. etliche Modelle von Broadcom.
Den Fall hatte ich schonmal, die wollten einfach nicht performant Daten bereitstellen. Nach einem Austausch gegen eine Intel Server NIC rannte dann alles problemlos.
Es ist eine 4-Port INTEL Server LAN Karte verbaut und Treiber aktuell

Oder zweite Option, die Festplatten sind noch am Raid Wiederaufbau oder eine davon tut nicht so wie sie soll.
Der Server lief 4 Tage ohne dass jemand was gemacht hatte.
certifiedit.net
certifiedit.net 26.09.2019 um 18:10:20 Uhr
Goto Top
Sorry, aber wer hat den sch... Denn konfiguriert? SATA Platten, dazu 48gb Ran und dann wieder ne unmögliche CPU...das sieht irgendwie stark nach "ich Greif Mal in die Spielsachen Kiste"...
keine-ahnung
keine-ahnung 26.09.2019 um 19:19:27 Uhr
Goto Top
Moin,

SATA Platten

nö, SAS - halt aber nicht die Allerschnellsten face-smile

Ich weiss jetzt nicht, was sich an den Systemanforderungen zwischen 2008R2 und 2019 so geändert hat, aber bei mir laufen auf zwei Hyper-V-Büchsen mit jeweils 32 Gbyte, einem E3-1240 sowie 7,2k-SATA Platten 2 respektive 3 Windows VM ziemlich fluffig. Und die CPU sollte ja nicht schneller sein als das o.g. Teil ...

Hat ggf. jemand eine Idee warum der Zugriff so extrem lansam ist?

Warum schaust Du nicht erst einmal, was genau da an Last auf den CPU liegt, was an RAM verwendet wird, wie die HDD ausgelastet sind, was da an traffic rübergeht ...

2 VM's Windows 2019 (je 16 GB RAM, 4 CPU's)

auch 'ne spannende Konfiguration, wenn die CPU nur 4 Kerne + HT bietet face-smile. Der Hypervisor braucht ja nix zum Rechnen face-smile - ist aber sicher nicht die Ursache.

Schau erst mal in Ruhe ... ich vermute aber auch eher ein Netzwerkproblem (watt sacht eigentlich das event-log?)

LG, Thomas
ewnwm1
ewnwm1 26.09.2019 um 22:32:46 Uhr
Goto Top
Ich würde auf Host und Gast jeweils mal eine GB Datei kopieren, um zu sehen, ob der I/O i.O. ist. Dabei die CPU des Hostes im Auge behalten. Danach kann die Recherche in Richtung Netzwerk weitergehen.
certifiedit.net
certifiedit.net 26.09.2019 um 22:37:13 Uhr
Goto Top
nö, SAS - halt aber nicht die Allerschnellsten

SAS mit 7.2k sind i.d.R nur NL-SAS oder eben umgemodelte SATA - dabei muss man sagen, SATA ist ja nicht schlecht, aber wenn man es einsetzt, muss einem eben auch klar sein, dass SATA-Spindeln nicht die Leistung von SAS oder gar SATA-SSDs bringen. Wie bereits niedergelegt, das System ist nicht gleichmäßig ausbalanciert.
nEmEsIs
nEmEsIs 27.09.2019 um 07:25:06 Uhr
Goto Top
Hi

Was für ein Switch hängt den an dem HyperV ?
Ist der fürs Teaming geeignet / konfiguriert ?
Hast du das teaming mal aufgelöst und ohne probiert bzw ein Kabel mal abgezogen ob es dann schneller wird?

Hast du mal ein paar Dateien direkt auf den HyperV Host kopiert oder heruntergezogen ?
Wie ist hier die preformance ?

Mal NetIO oder so verwendet um die Netzwerkperformance zu messen ?

Mit freundlichen Grüßen Nemesis
Akcent
Akcent 27.09.2019 aktualisiert um 08:30:08 Uhr
Goto Top
Was für ein Switch hängt den an dem HyperV ?
ein nicht gemanagter Netgear GB Switch 16-Port.

Ist der fürs Teaming geeignet / konfiguriert ?
Durch die dym,. Teaming Konfig. muß dieser das was ich gelesen habe nicht

Hast du das teaming mal aufgelöst und ohne probiert bzw ein Kabel mal abgezogen ob es dann schneller wird?
ich teste das mal indem ich einen Port über Window deaktiviere.


Hast du mal ein paar Dateien direkt auf den HyperV Host kopiert oder heruntergezogen ?
Wie ist hier die preformance ?

Kopiere gerade ein 3GB ISO vom Server auf einen PC

27-09-_2019_08-27-07

27-09-_2019_08-29-48

Mal NetIO oder so verwendet um die Netzwerkperformance zu messen ?
schaue ich mir mal an

Die CPU auf dem Host tümpelt bei 7 - 10 % vor sich hin.
emeriks
emeriks 27.09.2019 aktualisiert um 08:35:27 Uhr
Goto Top
Hi,
der XEON E-2124 hat doch nur 4 Core und das ohne HT.
https://ark.intel.com/content/www/de/de/ark/products/134856/intel-xeon-e ...

Wenn Du da jetzt 2 VM's mit je 4 vCPU parallel betreibst, dann ist es klar, dass der Host in die Knie geht. 4 VM's á 2 vCPU wären zwar rein mathematisch die gleiche Überbuchung wie 2x 4 vCPU, würden aber höchstwahrscheinlich trotzdem besser laufen.
Also reduziere die Anzahl vCPU je VM auf 2.

Oder?

E.
Akcent
Akcent 27.09.2019 um 08:53:12 Uhr
Goto Top
der XEON E-2124 hat doch nur 4 Core und das ohne HT.
https://ark.intel.com/content/www/de/de/ark/products/134856/intel-xeon-e ...

Wenn Du da jetzt 2 VM's mit je 4 vCPU parallel betreibst, dann ist es klar, dass der Host in die Knie geht. 4 VM's á 2 vCPU wären zwar rein mathematisch die gleiche Überbuchung wie 2x 4 vCPU, würden aber höchstwahrscheinlich trotzdem besser laufen.
Also reduziere die Anzahl vCPU je VM auf 2.
Die CPU tümpelt aber doch vor sich hin und meiner Info nach sollten die Einstellungen auch so passen. Ich teste das aber gerne mal.
emeriks
emeriks 27.09.2019 aktualisiert um 08:55:48 Uhr
Goto Top
Zitat von @Akcent:
Die CPU tümpelt aber doch vor sich hin und meiner Info nach sollten die Einstellungen auch so passen. Ich teste das aber gerne mal.
Das ist ja das Gemeine daran. Das sieht man nicht in der CPU-Auslastung sondern in deren Verfügbarkeit. Unter VMware würde man jetzt die cpuready-Werte prüfen. Keine Ahnung, welcher Performance-Counter dem bei Windows Hyper-V entspricht.
rzlbrnft
rzlbrnft 27.09.2019 um 09:07:39 Uhr
Goto Top
Zitat von @emeriks:
Zitat von @Akcent:
Die CPU tümpelt aber doch vor sich hin und meiner Info nach sollten die Einstellungen auch so passen. Ich teste das aber gerne mal.
Das ist ja das Gemeine daran. Das sieht man nicht in der CPU-Auslastung sondern in deren Verfügbarkeit. Unter VMware würde man jetzt die cpuready-Werte prüfen. Keine Ahnung, welcher Performance-Counter dem bei Windows Hyper-V entspricht.

Bei Windows 10 hat man da mittlerweile einen Prozess dafür erfunden. Nennt sich vmmem.
Kann jetzt aber nicht testen wie sich das mit dem Server 2019 verhält. Den perfmon sollte es aber noch geben, der zeigt es korrekt.
Akcent
Akcent 27.09.2019 um 09:09:02 Uhr
Goto Top
sehe ich das richtig, dass man unter Windows 2019 keine Intergrationsdienste mehr auf der VM installieren kann / muß?
emeriks
emeriks 27.09.2019 um 09:33:22 Uhr
Goto Top
Zitat von @Akcent:
Die CPU tümpelt aber doch vor sich hin und meiner Info nach sollten die Einstellungen auch so passen. Ich teste das aber gerne mal.
face-wink
Tümpeln vs. Dümpeln
goscho
goscho 27.09.2019 aktualisiert um 09:36:47 Uhr
Goto Top
Moin,

ich würde zuerst mal den Switch gegen was vernünftiges ersetzen lassen.
Schalte auch das Teaming aus.
Du kannst natürlich jeder VM und dem Host jeweils eine eigene Netzwerkkarte zuweisen.
Akcent
Akcent 27.09.2019 um 11:51:28 Uhr
Goto Top
ich würde zuerst mal den Switch gegen was vernünftiges ersetzen lassen.
Schalte auch das Teaming aus.
Du kannst natürlich jeder VM und dem Host jeweils eine eigene Netzwerkkarte zuweisen.

Habe das Teamning aufgelöst und jeder VM einen eigene LAN-Port gegeben.

Jeder VM habe ich mal nur 2 CPU's zugewiesen.
Aber wirklich schneller finde ich das nun nicht.
goscho
goscho 27.09.2019 um 12:54:54 Uhr
Goto Top
Switch neugestartet?
Switch getauscht?

Die Billigteile von Netgear können gern mal Probleme machen, die man nicht vermutet. face-sad
ArnoNymous
ArnoNymous 27.09.2019 um 13:36:56 Uhr
Goto Top
Moin,

generell würde ich niemanden empfehlen, sowohl den Host als auch die VMs auf einem bzw den gleichen RAID1 zu betreiben.
Das gibt imho bei 2019 generell Performanceprobleme, sofern man administrativ dort mal ein wenig tätig wird. Im normalen Betrieb sollte das aber nicht auffallen (wobei ich das noch nie mit 7,2k HDDs gemacht habe).

Deaktiviere in der Netzwerkkarte mal die ""Warteschlagen für virtuelle Computer" und schaue, ob es dann besser wird.

Gruß
141253
141253 27.09.2019 um 14:13:55 Uhr
Goto Top
Hallo Akcent,
ich habe vielleicht noch 2 Ansätze, die mir beim Hyper-V schon mal geholfen haben.

Stelle auf jeden Fall die Energieeinstellungen des Hyper-V auf "Höchstleistung". Des weiteren habe ich die Erfahrung gemacht, dass manche Intel-Karten die Teaming-Funktion von Windows nicht mögen. Hier ist die Intelsoftware die bessere Wahl um ein Teaming herzustellen.

VG Karsten
Akcent
Akcent 27.09.2019 um 15:20:27 Uhr
Goto Top
Deaktiviere in der Netzwerkkarte mal die ""Warteschlagen für virtuelle Computer" und schaue, ob es dann besser wird.
Wo genau soll das denn sein?
Habe auf dem Host unter den LAN Eigenschaften nichts dazu / passendes gefunden.
Akcent
Akcent 27.09.2019 aktualisiert um 15:24:19 Uhr
Goto Top
Stelle auf jeden Fall die Energieeinstellungen des Hyper-V auf "Höchstleistung".
hatte ich auch schon gemacht.

Des weiteren habe ich die Erfahrung gemacht, dass manche Intel-Karten die Teaming-Funktion von Windows nicht mögen. Hier ist die Intelsoftware die bessere Wahl um ein Teaming herzustellen.
Das Teaming hbe ich heute morgen deaktiviert und jede VM hat nun ihren eigenen LAN-Port
ArnoNymous
ArnoNymous 27.09.2019 aktualisiert um 15:27:18 Uhr
Goto Top
Unter den erweiterten Einstellungen der Netzwerkkarte:

ws

Heißt eventuell auch "Virtual Machine Queues"
Akcent
Akcent 27.09.2019 um 15:30:34 Uhr
Goto Top
Zitat von @Akcent:

Deaktiviere in der Netzwerkkarte mal die ""Warteschlagen für virtuelle Computer" und schaue, ob es dann besser wird.
Wo genau soll das denn sein?
Habe auf dem Host unter den LAN Eigenschaften nichts dazu / passendes gefunden.
Update: habs gefunden unter dem VM Eigenschaften --> Netzwerkkarte --> Hardwarebeschleunigung
Akcent
Akcent 27.09.2019 um 15:46:09 Uhr
Goto Top
Zitat von @ArnoNymous:

Unter den erweiterten Einstellungen der Netzwerkkarte:

ws

Heißt eventuell auch "Virtual Machine Queues"
weder noch bei der INTEL-Karte
Penny.Cilin
Penny.Cilin 28.09.2019 um 12:47:13 Uhr
Goto Top
Hallo,

folgendes fällt mir auf:
1. Extremes Overprovisioning der CPUs (4 Cores) und dann noch doppelt vergeben!
2. 16 GiB RAM für einen Fileserver?

Hast Du das gleich so gemacht, oder sukzessive erhöht, wegen Performanceproblemen?
Bei Virtualisierung gibt es eine Regel, die heißt soviel wie möglich und so so wenig wie nötig.
Sprich ich hätte 2 vCPUs und 4-8 GiB RAM pro VM gegeben. Wobei bei einem Fileserver sind die IOs wichtig und nicht der Arbeitsspeicher.
Also Platten (SAS, oder gar Fibre Channel) und Netzwerk.

Gruss Penny.
Akcent
Akcent 28.09.2019 um 15:29:53 Uhr
Goto Top
folgendes fällt mir auf:
1. Extremes Overprovisioning der CPUs (4 Cores) und dann noch doppelt vergeben!
wurde bereits geändert. Jede VM hat nun nur noch 2 CPU's

2. 16 GiB RAM für einen Fileserver?
der Host hat 48 GB. Also genug Reserven

Hast Du das gleich so gemacht, oder sukzessive erhöht, wegen Performanceproblemen?
direkt und später reduziert

Bei Virtualisierung gibt es eine Regel, die heißt soviel wie möglich und so so wenig wie nötig.
Sprich ich hätte 2 vCPUs und 4-8 GiB RAM pro VM gegeben. Wobei bei einem Fileserver sind die IOs wichtig und nicht der Arbeitsspeicher.
Also Platten (SAS, oder gar Fibre Channel) und Netzwerk.
SAS Platten sind verbaut.
Th0mKa
Th0mKa 28.09.2019 um 15:55:30 Uhr
Goto Top
Zitat von @Penny.Cilin:

Bei Virtualisierung gibt es eine Regel, die heißt soviel wie möglich und so so wenig wie nötig.
´
Die Regel heißt "So viel wie nötig, so wenig wie möglich." Just saying...
Ich würde erstmal einen Test mit NetIO machen und den ganzen CPU/HDD Kram außen vor lassen.

/Thomas
Akcent
Akcent 28.09.2019 um 17:39:43 Uhr
Goto Top
Ich würde erstmal einen Test mit NetIO machen und den ganzen CPU/HDD Kram außen vor lassen.
Hier die Ergebnisse

28-09-_2019_17-39-45
Th0mKa
Th0mKa 28.09.2019 um 17:41:34 Uhr
Goto Top
Zitat von @Akcent:

Hier die Ergebnisse

Von wo nach wo?

/Thomas
Akcent
Akcent 28.09.2019 aktualisiert um 19:26:44 Uhr
Goto Top
Von wo nach wo?
Auf dem FileServer wurde mit -s gestartet und auf einem Client zum Server
Das was man hier sieht sind die Ergebnisse die der Server angezeigt hatte.

Die gleichen Werte habe ich von einer VM zum Server.
Also von VM zu VM

Und auch die gleichen Werte vom Host zum Server
goscho
goscho 30.09.2019 um 08:17:12 Uhr
Goto Top
Guten Morgen Akcent
deine Netio-Werte sind gut.

Jetzt kannst du woanders ansetzen, um deine Speedproblem zu lösen.
Ich würde zuerst mal das GDATA AV deinstallieren und gleich danach den Windows Defender ausschalten, auf allen Servern.
hansdampf
hansdampf 18.10.2021 um 19:33:00 Uhr
Goto Top
Hallo,
der Beitrag ist nun zwar schon ein Jahr alt aber wurde anscheinend nicht gelöst, besteht das Problem noch ?

Habe so etwas ähnliches nur das bei mir im Ressourcenmonitor bei der Festplatte immer 100% mit max. Aktivität läuft...
rzlbrnft
rzlbrnft 19.10.2021 aktualisiert um 11:29:41 Uhr
Goto Top
Zitat von @hansdampf:
Habe so etwas ähnliches nur das bei mir im Ressourcenmonitor bei der Festplatte immer 100% mit max. Aktivität läuft...

Dann liegt das Problem eher an der eingesetzten Storage Hardware, z.B. Controller Treiber oder HDDs direkt. Würde das Problem am Netzwerk liegen könnte der Prozess die Fesplatten gar nicht auslasten da schon vorher zu wenig Bandbreite durchkommt.

Würde mal lokal testen was der Speicher an IOs hergibt mit einem Benchmark, z.B. CrystalDiskMark.
hansdampf
hansdampf 19.10.2021 um 15:37:47 Uhr
Goto Top
Vielen Dank für die Info face-smile