Falschenhals mit 2x 48Port Switchen und 1x ESXi 5.1 Server so gering wie möglich halten
Hallo liebe Kollegen,
ich habe eine Frage speziell zu den Thema, wie ich den Flaschenhals so gering wie möglich halte.
Ich weis das Thema wurde schon mehrmals durchgekaut, aber einen Beitrag den ich zu meinen Thema passend gefunden habe war von 2001 und das sich technisch so einiges getan hat, würde ich gerne eure Erfahrungen / euer Wissen befragen was ich tun könnte.
Meine Umgebung ist folgende:
- 1x ESXi Server (HP Server mit 4x 1GBit Ports) mit einer Linux-VM die als Domänencontroller dient
- 2x 1810-48G HP Switche (wo fast alle Port belegt sind)
- 1x Sonicwall als Gateway und VPN (für Support)
Mein jetziger Ansatz/Idee dazu ist, das ich dem virtuellen Switch 2x physische GBit Ports gebe und die jeweils auf einen von den Switchen als Uplink gebe und die Sonicwall auf einen von den beiden Switchen stecke, da die beiden Switche ja mit den virtuellen Switch vom ESXi verbunden sind.
Von meinen Kollege der Vorschlag war ein Trunk mit 4x PatchKabel (4 GBit) zwischen den Switchen zu machen und dann normal den ESXi und die Sonicwall an einen von den Switchen mache. Er sagte nur, dass das eine Patchkabel zum ESXi dann der Flaschenhals wäre da dieser ja nur 1 GBit kann.
Ich hoffe Ihr könnt mir einige Tipps geben zu diesen Szenario geben da ich öffters ein solches Netzwerk haben werde.
Ach ja damit ihr wisst was ich mache, ich richte in Schulen neue Server inkl. Netzwerk ein.
Danke schon mal im vorraus.
ich habe eine Frage speziell zu den Thema, wie ich den Flaschenhals so gering wie möglich halte.
Ich weis das Thema wurde schon mehrmals durchgekaut, aber einen Beitrag den ich zu meinen Thema passend gefunden habe war von 2001 und das sich technisch so einiges getan hat, würde ich gerne eure Erfahrungen / euer Wissen befragen was ich tun könnte.
Meine Umgebung ist folgende:
- 1x ESXi Server (HP Server mit 4x 1GBit Ports) mit einer Linux-VM die als Domänencontroller dient
- 2x 1810-48G HP Switche (wo fast alle Port belegt sind)
- 1x Sonicwall als Gateway und VPN (für Support)
Mein jetziger Ansatz/Idee dazu ist, das ich dem virtuellen Switch 2x physische GBit Ports gebe und die jeweils auf einen von den Switchen als Uplink gebe und die Sonicwall auf einen von den beiden Switchen stecke, da die beiden Switche ja mit den virtuellen Switch vom ESXi verbunden sind.
Von meinen Kollege der Vorschlag war ein Trunk mit 4x PatchKabel (4 GBit) zwischen den Switchen zu machen und dann normal den ESXi und die Sonicwall an einen von den Switchen mache. Er sagte nur, dass das eine Patchkabel zum ESXi dann der Flaschenhals wäre da dieser ja nur 1 GBit kann.
Ich hoffe Ihr könnt mir einige Tipps geben zu diesen Szenario geben da ich öffters ein solches Netzwerk haben werde.
Ach ja damit ihr wisst was ich mache, ich richte in Schulen neue Server inkl. Netzwerk ein.
Danke schon mal im vorraus.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 216085
Url: https://administrator.de/contentid/216085
Ausgedruckt am: 22.11.2024 um 22:11 Uhr
10 Kommentare
Neuester Kommentar
Auch wenn die 1810er Serie zu den Low-Cost Geräten zählt...
das wird wohl gehen.
Du solltest dir aber vor der Konfigurationsänderung einen Ist-Zustand notieren, den du messtechnisch erfassen. Portauslastung und Serverlasten.
Mit LACP kannst du zwei bis 4 Leitungen bündeln und so in Summe eine deutlich höhere Bandbreite zur Verfügung stellen.
Der erwähnte Flaschenhals trifft aber nur für einen einzelnen Client zu, da der ja nie mehr als 1 GBit ziehen kann und der Server auch nicht mehr bereit stellen könnte. Wenn aber 3 Clients je 1 Gbit wollen, könnte das der Server über die 4 Leitungen ausliefern.
Das nennt sich bei HP: Link-Bündelung (Trunking).
Die selbe Leistungsrechung gilt auch für die Bündelung des Switch uplinks. Es gibt also nicht wirklich eine Einschränkung.
Aber, du hast ja nicht mehr so viele Ports frei.
Wichtig ist in jedem Falle, das die Konfigurationen von Switch und Server zusammen passen.
Gruß
Netman
das wird wohl gehen.
Du solltest dir aber vor der Konfigurationsänderung einen Ist-Zustand notieren, den du messtechnisch erfassen. Portauslastung und Serverlasten.
Mit LACP kannst du zwei bis 4 Leitungen bündeln und so in Summe eine deutlich höhere Bandbreite zur Verfügung stellen.
Der erwähnte Flaschenhals trifft aber nur für einen einzelnen Client zu, da der ja nie mehr als 1 GBit ziehen kann und der Server auch nicht mehr bereit stellen könnte. Wenn aber 3 Clients je 1 Gbit wollen, könnte das der Server über die 4 Leitungen ausliefern.
Das nennt sich bei HP: Link-Bündelung (Trunking).
Die selbe Leistungsrechung gilt auch für die Bündelung des Switch uplinks. Es gibt also nicht wirklich eine Einschränkung.
Aber, du hast ja nicht mehr so viele Ports frei.
Wichtig ist in jedem Falle, das die Konfigurationen von Switch und Server zusammen passen.
Gruß
Netman
Wenn der ESXi kein LACP, keine Portbündelung beherrscht, dann lass es bloß bleiben. Denn dann passsiert, was du bei deinen Gedanken zum Loop schon vorsichtig geäußert hast. Vier Ports auf zwei Switche auftelen ist noch um einiges spannender. Dann gibt es gar keine Kontrolle mehr.
Aber zwischen den Switchen könntest du schon einen Trunk machen. Beide mit LACP konfigurieren.
Als Umweg gibt es aber wohl eine Portgruppe, die mit HP funktionieren könnte: http://www.it-secrets.com/index.php?option=com_content&view=article ...:..
Aber zwischen den Switchen könntest du schon einen Trunk machen. Beide mit LACP konfigurieren.
Als Umweg gibt es aber wohl eine Portgruppe, die mit HP funktionieren könnte: http://www.it-secrets.com/index.php?option=com_content&view=article ...:..
Zitat von @Bloodangel:
Um es mal genau zu sagen, welche Konfiguration wäre eurer Meinung nach am besten?
Moin,Um es mal genau zu sagen, welche Konfiguration wäre eurer Meinung nach am besten?
Du kannst jeweils 2 NICs mit jedem Switch verbinden, du must dann aber die Load Balancing Policy auf "Route Based on IP Hash" umstellen wenn du weniger VMs als Netzwerkports hast. Ein Trunking oder ähnliches ist nicht notwendig.
Vgl. http://www.vmware.com/files/pdf/virtual_networking_concepts.pdf
VG,
Thomas
Der ESXi 5.1 supportet direkt Trunking mit LACP ! Mindestens aber static Trunking was die üblen HP Gurken auch können. Siehe:
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&am ...
und hier die Requirements:
http://kb.vmware.com/selfservice/microsites/search.do?cmd=displayKC& ...
Macht also schon Sinn den Server mit 2x oder 4x GIg als Trunk anzubinden an den Switch.
Da die HP Billigswitches kein Stacking supporten und auch keinerlei Support für virtuelles Trunking über 2 Switches haben kann man den Server LACP Trunk natürlich nicht splitten sondern immer nur auf einem physischen Switch terminieren.
Damit natürlich alle Clients in den Genuss höherer bandbreite kommen macht es Sinn die Switches selber mit einem 2x GiG Trunk zu verbinden.
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&am ...
und hier die Requirements:
http://kb.vmware.com/selfservice/microsites/search.do?cmd=displayKC& ...
Macht also schon Sinn den Server mit 2x oder 4x GIg als Trunk anzubinden an den Switch.
Da die HP Billigswitches kein Stacking supporten und auch keinerlei Support für virtuelles Trunking über 2 Switches haben kann man den Server LACP Trunk natürlich nicht splitten sondern immer nur auf einem physischen Switch terminieren.
Damit natürlich alle Clients in den Genuss höherer bandbreite kommen macht es Sinn die Switches selber mit einem 2x GiG Trunk zu verbinden.
Moin,
ja der ESXi supported LACP, allerdings benötigt er dafür Distributed Switches die es erst in der Enterprise Plus gibt.
VG,
Thomas