ESX und Trunking! Nie über 40 MBs bei Gbit-Lan..
Hi,
also ich habe folgendes Problem:
ich habe zwei ESX-Hosts an einem ProCurve hängen. Nun habe ich auf jedem Host jeweils 2 Netzwerkkarten geteamed. Bei den Karten handelt es sich um Intel Gbit Serveradapter! Dann habe ich auf dem Switch 2 Trunks eingerichtet bestehend aus 2 Ports pro Trunk. Dann im ESX den VSwitch auf Lastenausgleich: "Route on IP-Hash" gestellt und auf den Trunks LACP eingerichtet.
Nachdem ich nun von einem virtuellen Server auf HOST A auf einen anderen virtuellen Server auf Host B ein ISO kopiert habe, musste ich feststellen, dass beim Kopiervorgang nur 1 Port pro Trunk belegt wird! (Quelle: HP Switch Status im Webinterface)
Ich bekomme nie über 40 MB/s über die geteamten Karten!
Hat vielleicht jemand nen Lösungansatz oder ne Idee?
Zur Hardware:
Host A und Host B = HP ProLiant ML370 G5
Switch = ProCurve 2848 (neuste FW I.10.77)
ESX = ESX 4 Update 1 / neuste Build
Bin dankbar für jede Idee!
LG
Alex
also ich habe folgendes Problem:
ich habe zwei ESX-Hosts an einem ProCurve hängen. Nun habe ich auf jedem Host jeweils 2 Netzwerkkarten geteamed. Bei den Karten handelt es sich um Intel Gbit Serveradapter! Dann habe ich auf dem Switch 2 Trunks eingerichtet bestehend aus 2 Ports pro Trunk. Dann im ESX den VSwitch auf Lastenausgleich: "Route on IP-Hash" gestellt und auf den Trunks LACP eingerichtet.
Nachdem ich nun von einem virtuellen Server auf HOST A auf einen anderen virtuellen Server auf Host B ein ISO kopiert habe, musste ich feststellen, dass beim Kopiervorgang nur 1 Port pro Trunk belegt wird! (Quelle: HP Switch Status im Webinterface)
Ich bekomme nie über 40 MB/s über die geteamten Karten!
Hat vielleicht jemand nen Lösungansatz oder ne Idee?
Zur Hardware:
Host A und Host B = HP ProLiant ML370 G5
Switch = ProCurve 2848 (neuste FW I.10.77)
ESX = ESX 4 Update 1 / neuste Build
Bin dankbar für jede Idee!
LG
Alex
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 144414
Url: https://administrator.de/contentid/144414
Ausgedruckt am: 13.11.2024 um 09:11 Uhr
11 Kommentare
Neuester Kommentar
Hi
das Phänomen kenne ich bei unseren Broadcom NICs (G5), aber die Zusatzkarten (Intel Pro) bei uns machen das eigentlich ganz OK und bei uns war es wesentlich schlimmer; einer brachte seine 50MB/s beide dann unter 10MB/s, aber immerhin haben beide Daten ausgetauscht.
Deinen Grund den ESX Switch das nicht machen zu lassen, will ich jetzt nicht in Frage stellen (bietet ja auch Failover und Loadbalance ohne was einstellen zu müssen).
Was erreichst du nur mit einer? Bei uns war mit Gigabit trotz RAMdisk (REO) auf der anderen Seite nicht mehr als 50MB/s mit single Gigabit; ohne VM waren da locker 90MB/s erreichbar (Nortel Pathport), aber die VM verschluckt halt auch viel. Welchen NIC hast du in der VM eingestellt?
Gruß
Sam
das Phänomen kenne ich bei unseren Broadcom NICs (G5), aber die Zusatzkarten (Intel Pro) bei uns machen das eigentlich ganz OK und bei uns war es wesentlich schlimmer; einer brachte seine 50MB/s beide dann unter 10MB/s, aber immerhin haben beide Daten ausgetauscht.
Deinen Grund den ESX Switch das nicht machen zu lassen, will ich jetzt nicht in Frage stellen (bietet ja auch Failover und Loadbalance ohne was einstellen zu müssen).
Was erreichst du nur mit einer? Bei uns war mit Gigabit trotz RAMdisk (REO) auf der anderen Seite nicht mehr als 50MB/s mit single Gigabit; ohne VM waren da locker 90MB/s erreichbar (Nortel Pathport), aber die VM verschluckt halt auch viel. Welchen NIC hast du in der VM eingestellt?
Gruß
Sam
Ach so
dann ist's ja klar. Das "Teaming" stellt ESX einfach nur allen internen Switch zur Verfügung (ist ja eine normale Loadbalance Funktion auf allen Ports). Der VM hilft das nichts, sondern nur alle haben eben mehr Bandbreite. Es ist aber auch möglich diese in die VM mittels dem ProSet, was ich aber eher abrate. Wenn man mehr als die 50MB/s braucht würde sich GBX anbieten.
Gruß
Sam
dann ist's ja klar. Das "Teaming" stellt ESX einfach nur allen internen Switch zur Verfügung (ist ja eine normale Loadbalance Funktion auf allen Ports). Der VM hilft das nichts, sondern nur alle haben eben mehr Bandbreite. Es ist aber auch möglich diese in die VM mittels dem ProSet, was ich aber eher abrate. Wenn man mehr als die 50MB/s braucht würde sich GBX anbieten.
Gruß
Sam
Hi
bei HD's bieten sich redundante Pfade wegen Ausfallssicherheit an. Da iSCSI Etherframes benutzt sind die sowieso nicht an IP oder PortTrunking und Co interessiert. Wenn du in einer VM sowieso keine Redundanz fährst (wofür auch) bist du sowieso an die max 110MB/s gebunden. Da bieten sich aber normal eher Offload NICs an um iSCSI zu beschleunigen (das geht aber nicht in einer VM durch den generischen NIC); im ESX geht das hervorragend, auch wenn wir mehr und mehr auf SAN/DAS setzen.
Gruß
Sam
bei HD's bieten sich redundante Pfade wegen Ausfallssicherheit an. Da iSCSI Etherframes benutzt sind die sowieso nicht an IP oder PortTrunking und Co interessiert. Wenn du in einer VM sowieso keine Redundanz fährst (wofür auch) bist du sowieso an die max 110MB/s gebunden. Da bieten sich aber normal eher Offload NICs an um iSCSI zu beschleunigen (das geht aber nicht in einer VM durch den generischen NIC); im ESX geht das hervorragend, auch wenn wir mehr und mehr auf SAN/DAS setzen.
Gruß
Sam