ESXi Netzwerklast wird nicht ausgeglichen btw. eine VM die große Datenmengen kopiert bekommt die volle Bandbreite die anderen VMs werden dabei sogar manchmal unterbrochen.
Hallo liebe Kollegen,
ich habe Da an meinem Produktivsystem ein kleines Problem, eventuell kann mir jemand von Euch weiterhelfen.
Wenn man mit einem Client (Win7) eine sehr große Menge an Daten kopiert ab 50GB dann kommt es vor, das die Verbindung zu anderen VM sehr schlecht werden.
Nun möchte ich erreichen, das einigen VM eine garantierte 1Gbit/s verbindung zur verfügung steht.:
Netztwerkcontroller in den VM ist VMXnet1 und im Host ist ein "Team" über 4 GBit/s Ports einer Intel Pro1000 PT Quadport karte.
Kann man per Hosteinstellungen verhindern, das Eine VM alle Netztwerkrecourcen bekommt ?
ich habe Da an meinem Produktivsystem ein kleines Problem, eventuell kann mir jemand von Euch weiterhelfen.
Wenn man mit einem Client (Win7) eine sehr große Menge an Daten kopiert ab 50GB dann kommt es vor, das die Verbindung zu anderen VM sehr schlecht werden.
Nun möchte ich erreichen, das einigen VM eine garantierte 1Gbit/s verbindung zur verfügung steht.:
Netztwerkcontroller in den VM ist VMXnet1 und im Host ist ein "Team" über 4 GBit/s Ports einer Intel Pro1000 PT Quadport karte.
Kann man per Hosteinstellungen verhindern, das Eine VM alle Netztwerkrecourcen bekommt ?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 169642
Url: https://administrator.de/forum/esxi-netzwerklast-wird-nicht-ausgeglichen-btw-eine-vm-die-grosse-datenmengen-kopiert-bekommt-die-volle-169642.html
Ausgedruckt am: 23.12.2024 um 05:12 Uhr
9 Kommentare
Neuester Kommentar
Hast du auch den Switch auf der anderen Seite wo das "Team" der Quadport Seite hinführt entsprechend konfiguriert. Link Aggregation / Teaming mit 802.3ad bzw. LACP erfordert immer BEIDE Seiten !! Ansonsten kommt gar kein Teaming/Link Aggregation zustande und es passiert genau das was du bei dir siehst...!
Motherboard mit 2 Onboard LAN Anschlüssen
Traffic am Server auf 2 NICs verteilen
Kann man einen Server zur Performacesteigerung mit 2 Netzwerkkarten parallel an einem Switch betreiben? Wenn ja mit welcher Konfiguration ?
Bonding mit Broadcom - SLB
Motherboard mit 2 Onboard LAN Anschlüssen
Traffic am Server auf 2 NICs verteilen
Kann man einen Server zur Performacesteigerung mit 2 Netzwerkkarten parallel an einem Switch betreiben? Wenn ja mit welcher Konfiguration ?
Bonding mit Broadcom - SLB
Also das Kopieren von Dateien ist kein geeigneter Test um die Leistung des Netzwerkes zu prüfen. Du weißt nicht, wo der Flaschenhals liegt und welche Komponenten schneller als der Flaschenhals sind. Du kannst mit IOmeter sowohl die Leistung der virtuellen Festplatten testen, als auch per Client und Server die Leistung des Netzwerkes - also a) Lese- und Schreiboperation auf Festplatten und b) Daten durch ein Netzwerk jagen.
Möglicherweise werden beim Kopieren der großen Datenmengen von/zu einer VM Euer Storage, auf dem die virtuellen Festplatten liegen, so ausgelastet, dass alle anderen VMs automatisch auch so langsam werden, dass sie sehr zäh laufen.
Du musst also die Leistungsfähigkeit des Storage (RAID, Netzwerk) und die Leistungsfähigkeit des normalen Netzwerkes getrennt überprüfen.
Möglicherweise werden beim Kopieren der großen Datenmengen von/zu einer VM Euer Storage, auf dem die virtuellen Festplatten liegen, so ausgelastet, dass alle anderen VMs automatisch auch so langsam werden, dass sie sehr zäh laufen.
Du musst also die Leistungsfähigkeit des Storage (RAID, Netzwerk) und die Leistungsfähigkeit des normalen Netzwerkes getrennt überprüfen.
Nur mal interessehalber ... Was würde passieren, wenn ich für 2 NICs am vSwitch ein Teaming vornehme, die beiden NICs dann aber an 2 verschiedenen physikalischen Switches anschließe (diese sind wiederum jeweils mit einem Core-Switch verbunden)? Bitte keine Antworten wie: "das wird nicht unterstützt". Ich möchte einfach wissen, was dann im NW passiert. Danke Euch!
Greetz Maze
Greetz Maze
Dann kommt es zu Laufzeitunterschieden bei konsequtiven Paketen die dann in falscher Reihenfolge am Ziel ankommen. Das TCP Protokoll bricht dann solche Sessions sofort ab bzw. sendet einen Session Reset.
Damit kommt es zum sofortigen Verbindungsabbruch und das mit immer wiederkehrender Zufälliger Auslösung je nach Laufzeit.
Das 802.3ad Protokoll bzw. LACP hat keinen Paket Reassemble Mechanismus, kann solche Laufzeitunterschiede am Ziel also nicht mehr korrigieren so das es zu diesen gravierenden Störungen kommt. Im Netz bedeutet das dann Stillstand oder alles rennt im Schneckentempo mit immerwiederkehrendem Abbruch.
Logischerweise darf man also deshalb niemals mit Link Aggregation nach 802.3ad 2 physisch unterschiedliche Switches für den Trunk nutzen.
Premium Switchhersteller nutzen proprietäre Lösungen um das zu überwinden. Damit werden 2 Switches virtuell über einen Tunnel gekoppelt.
Damit sind solche sog. "Split Trunks" oder "Multichannel Trunks" dann möglich. Solche Switches kosten dann auch entsprechend...sind aber untereinander nicht kompatibel da proprietär !
Damit kommt es zum sofortigen Verbindungsabbruch und das mit immer wiederkehrender Zufälliger Auslösung je nach Laufzeit.
Das 802.3ad Protokoll bzw. LACP hat keinen Paket Reassemble Mechanismus, kann solche Laufzeitunterschiede am Ziel also nicht mehr korrigieren so das es zu diesen gravierenden Störungen kommt. Im Netz bedeutet das dann Stillstand oder alles rennt im Schneckentempo mit immerwiederkehrendem Abbruch.
Logischerweise darf man also deshalb niemals mit Link Aggregation nach 802.3ad 2 physisch unterschiedliche Switches für den Trunk nutzen.
Premium Switchhersteller nutzen proprietäre Lösungen um das zu überwinden. Damit werden 2 Switches virtuell über einen Tunnel gekoppelt.
Damit sind solche sog. "Split Trunks" oder "Multichannel Trunks" dann möglich. Solche Switches kosten dann auch entsprechend...sind aber untereinander nicht kompatibel da proprietär !