Gbit LAG vs. 10Gbit Anbindung
Hallo zusammen,
ich habe ien Frage zum LAG mit 1Gbit Ports.
Ein LAG aus zum Beispiel 4x1Gbit Ports, im Vergleich zu einer einzelnen 10Gbit Anbindung.
Wenn ich zum Beispiel einen Server habe welcher parallel von 10 Usern belastet wird über 1Gbit Anbindungen.
Die Clients können nur 1Gbit. (Die Zahlen sind frei gewählt, mir geht es hier um das Prinzipverständniss)
Wie verhält es sich hier mir dem Load balancing, bzw. der "Bandbreit" (wenn man das in dem Fall so nenen kann) ?
Ist hier das LAG der einzelnen 10Gbit Anbindung überlegen? Oder ist auch in diesem Fall die 10Gbit noch die potentere Anbindung, auch wenn die einzelnen Clients jeweils nur 1Gbit können?
Vielen Dank.
ich habe ien Frage zum LAG mit 1Gbit Ports.
Ein LAG aus zum Beispiel 4x1Gbit Ports, im Vergleich zu einer einzelnen 10Gbit Anbindung.
Wenn ich zum Beispiel einen Server habe welcher parallel von 10 Usern belastet wird über 1Gbit Anbindungen.
Die Clients können nur 1Gbit. (Die Zahlen sind frei gewählt, mir geht es hier um das Prinzipverständniss)
Wie verhält es sich hier mir dem Load balancing, bzw. der "Bandbreit" (wenn man das in dem Fall so nenen kann) ?
Ist hier das LAG der einzelnen 10Gbit Anbindung überlegen? Oder ist auch in diesem Fall die 10Gbit noch die potentere Anbindung, auch wenn die einzelnen Clients jeweils nur 1Gbit können?
Vielen Dank.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 669945
Url: https://administrator.de/contentid/669945
Ausgedruckt am: 04.12.2024 um 18:12 Uhr
14 Kommentare
Neuester Kommentar
Moin,
welches „load balancing“? - im Sinne von „gibbet nicht“:
Kurz: im besten Fall kriegen alle Clients ihre volle 1 Gb/s, aber es klappt nicht wenn 10 Clients full Speed über einem 4er-LAG laden. Bei 4 Clients über einem 4er-LAG kann - aber muss nicht - beim einzelnen Client 1 Gb/s ankommen.
Dafür glänzt LAG mit Redundanz, was bei einem einzelnen 10 Gb/s-Link nicht gegeben ist.
Grüße
TA
welches „load balancing“? - im Sinne von „gibbet nicht“:
Dennoch ist diese grundlegende Implementierung bei weitem nicht optimal und eignet sich eigentlich nur für das Koppeln zweier Netze. Ein Nachteil besteht darin, dass je MAC-Adresse nur ein Port des Trunks benutzt wird – für eine einzelne Station bedeutet es, dass sie keine Vorteile hat – nur das Netz insgesamt profitiert. Weiterhin kann es vorkommen, dass die aktivsten Stationen zufällig alle dem gleichen Port zugeordnet sind, so dass folglich die Last nicht gleichmäßig innerhalb des Trunks verteilt wird.
https://de.wikipedia.org/wiki/Link_Aggregation
https://de.wikipedia.org/wiki/Link_Aggregation
Kurz: im besten Fall kriegen alle Clients ihre volle 1 Gb/s, aber es klappt nicht wenn 10 Clients full Speed über einem 4er-LAG laden. Bei 4 Clients über einem 4er-LAG kann - aber muss nicht - beim einzelnen Client 1 Gb/s ankommen.
Dafür glänzt LAG mit Redundanz, was bei einem einzelnen 10 Gb/s-Link nicht gegeben ist.
Grüße
TA
In der Theorie ja, praktisch ist es eher unwahrscheinlich, dass alle 10 Clients gleichzeitig Full Speed nutzen, also alle z. B. eine GB-große Datei ziehen.
Und dann stellt sich die Frage, ob der User es überhaupt merkt, wenn er keine 1 Gb/s hat.
Aber in real life würde ich einfach ein LAG aus 2x 10Gb/s bilden.
Schönen Abend
TA
Edit: Aussagen gilt für ein LAG nach IEEE 802.3ad bzw. IEEE 802.1AX, einige herstellereigene LAG beherrschen load balancing bzw. haben dieses Feature zusätzlich zum Standard-LAG implementiert.
Und dann stellt sich die Frage, ob der User es überhaupt merkt, wenn er keine 1 Gb/s hat.
Aber in real life würde ich einfach ein LAG aus 2x 10Gb/s bilden.
Schönen Abend
TA
Edit: Aussagen gilt für ein LAG nach IEEE 802.3ad bzw. IEEE 802.1AX, einige herstellereigene LAG beherrschen load balancing bzw. haben dieses Feature zusätzlich zum Standard-LAG implementiert.
LAG mag aus „Performance-Sicht“ nachteilig sein. Man sollte aber imho Stromverbrauch und damit Hitzeentwicklung bei 10 Gbit (Transceivern) nicht unterschätzen.
Und am Ende bin ich, in meinen kleinen Setups, immer überrascht, wie gering der Bedarf an hohen Bandbreiten (abseits von Tests) eigentlich ist.
Und am Ende bin ich, in meinen kleinen Setups, immer überrascht, wie gering der Bedarf an hohen Bandbreiten (abseits von Tests) eigentlich ist.
Du musst bei deiner Fragestellung schauen was du willst. Nehmen wir an du hast wirklich x Clients die alle zB. gleichzeitig nen Backup machen (bzw. von nem Image ziehen). Und natürlich muss dein Server eben auch min. dann mit 10 GBit angebunden sein und die auch wirklich liefern - dann _kann_ im besten Fall deine 10gbit Verbindung schneller sein (speziell wenn der Server in dem Beispiel eben auch nur mit 1x 10 Gbit angebunden wäre). PRAKTISCH wirst du diesen Fall nur nahezu nie haben.
Realistisch würde ich zB. immer auf eine Verbindung mit redundanz setzen - dir bringen die 10 GBit mal so gar nix wenn die Leitung beschädigt wird, das SFP (sofern genutzt) den Geist aufgibt oder der Azubi einfach kurz das Kabel rausnimmt und nich wieder richtig reinpackt. Bei 4x 1 Gbit habe ich dann eben nur noch 3x 1... ok, so what, bedeutet irgendwann in den nächsten Tagen/Wochen/Monaten schau ich mal was los is und behebe das. Bei 0x 10Gbit wird das wohl eher "ich lauf mal schnell direkt los..."
Weiterhin - aber da wird es dann schon wirklich eher theoretisch - müsste man halt überlegen: Der Switch ist ja normalerweise mit nem "Store-and-Forward" dabei. Habe ich jetzt hier 1x 10 GBit muss ich eben warten bis die eine Leitung "frei" ist um das nächste Paket rüberzuwerfen... Sind das jetzt pakete die sehr klein sind (Multicast TS zB. mit normal 188 Byte) hilft es dir ja nix das du 10 Gbit hast, das is halt nur viel leerer Platz drin (in 1 standard-ip paket packst du halt 7 TS Pakete rein, ist aber halt nicht die 1500 Byte die du könntest). Hast du dagegen mehrere Leitungen - ok, über _eine_ Leitung schickst du ggf. eben den Transport-Stream, die _zweite_ (und jede weitere) könnte dagegen von dem Client der das "Glück" hat da drauf zu laden mit den vollen GBit bedient werden.
Am Ende entscheiden eher realistische Faktoren über die Möglichkeiten: Preis, wieviel Kabel bekomm ich überhaupt verlegt, was kann mein Switch überhaupt... Geschwindigkeit ist da zumindest aktuell eher selten relevant - da WO es mir speziell einfallen würde (zB. Cluster) würde ich eh IMMER mehrere Leitungen nehmen wenn deren Storage sich darüber syncen soll. Da wäre mir allein wegen des Ausfallrisikos eine Leitung deutlich zu wenig. In dem Fall hätte ich aber auf beiden Seiten auch nen Stack-Switch mit min. 2 Nodes und da gibt es die Frage nicht mehr ob man den Stack nun mit nur einem Kabel zum nächsten Stack verbindet...
Realistisch würde ich zB. immer auf eine Verbindung mit redundanz setzen - dir bringen die 10 GBit mal so gar nix wenn die Leitung beschädigt wird, das SFP (sofern genutzt) den Geist aufgibt oder der Azubi einfach kurz das Kabel rausnimmt und nich wieder richtig reinpackt. Bei 4x 1 Gbit habe ich dann eben nur noch 3x 1... ok, so what, bedeutet irgendwann in den nächsten Tagen/Wochen/Monaten schau ich mal was los is und behebe das. Bei 0x 10Gbit wird das wohl eher "ich lauf mal schnell direkt los..."
Weiterhin - aber da wird es dann schon wirklich eher theoretisch - müsste man halt überlegen: Der Switch ist ja normalerweise mit nem "Store-and-Forward" dabei. Habe ich jetzt hier 1x 10 GBit muss ich eben warten bis die eine Leitung "frei" ist um das nächste Paket rüberzuwerfen... Sind das jetzt pakete die sehr klein sind (Multicast TS zB. mit normal 188 Byte) hilft es dir ja nix das du 10 Gbit hast, das is halt nur viel leerer Platz drin (in 1 standard-ip paket packst du halt 7 TS Pakete rein, ist aber halt nicht die 1500 Byte die du könntest). Hast du dagegen mehrere Leitungen - ok, über _eine_ Leitung schickst du ggf. eben den Transport-Stream, die _zweite_ (und jede weitere) könnte dagegen von dem Client der das "Glück" hat da drauf zu laden mit den vollen GBit bedient werden.
Am Ende entscheiden eher realistische Faktoren über die Möglichkeiten: Preis, wieviel Kabel bekomm ich überhaupt verlegt, was kann mein Switch überhaupt... Geschwindigkeit ist da zumindest aktuell eher selten relevant - da WO es mir speziell einfallen würde (zB. Cluster) würde ich eh IMMER mehrere Leitungen nehmen wenn deren Storage sich darüber syncen soll. Da wäre mir allein wegen des Ausfallrisikos eine Leitung deutlich zu wenig. In dem Fall hätte ich aber auf beiden Seiten auch nen Stack-Switch mit min. 2 Nodes und da gibt es die Frage nicht mehr ob man den Stack nun mit nur einem Kabel zum nächsten Stack verbindet...
Mal ne blöde Frage: Wie häufig kommt das denn in z.B. KMUs vor, dass wirklich auf die Redundanz zurückgegriffen wird? Und wenn ja, ist das denn hilfreich?
Ich meine: Bei nem Ausfall sucht man den Fehler, fehlt nur ein Teil des Durchsatzes, fällt das doch erstmal häufig gar nicht auf? Erst, wenn die zweite Leitung auch weg ist …
Ich meine: Bei nem Ausfall sucht man den Fehler, fehlt nur ein Teil des Durchsatzes, fällt das doch erstmal häufig gar nicht auf? Erst, wenn die zweite Leitung auch weg ist …
Nun - die Frage lässt sich am leichtesten mit ner Gegenfrage beantworten: Was kostet das Equipment und ein Ausfall? Stellst du da zB. irgendwo nur nen NAS in die Ecke weils als Datengrab reicht und die Mitarbeiter sagen halt im zweifelsfall auch mal für 1-2h "mir egal, geht scho" -> kein Problem. Kannst du dann (übergangsweise) noch ne Reserveleitung notfalls übern Flur ziehen und mit Klebeband abdecken -> perfekt...
Stellst du dir aber da irgendwie Equipment für mehrere 10.000 Euro hin weil du eben die Serverleistung brauchst, irgendwelche speziellen Dienste da sind oder sonstwas -> dann hast du einfach am falschen Ende gespart wenn du sagst "aber egal, eine Leitung reicht schon". Wenn dir zB. beim Cluster dann nen Split-Brain den ganzen Kram zerlegt hast du eben zwar nur _einen_ Ausfall gehabt und ggf. auch nur ne geringe Chance dafür gehabt... aber: Der Schaden ist trotzdem hoch...
Oder anders: Die Chance auf nen Ausfall ist ja (wenn man menschliches Versagen, falsche Konfig, Kabel Schäden,...) alles einrechnet erheblich höher als nen Lottogewinn... trotzdem spielen jede Woche Millionen Menschen Lotto... Die chance dürfte sogar erheblich höher als nen Jackpot im Casino sein - trotzdem sind die Läden in Las Vegas voll... Oder anders: Die chance das "die Pille" versagt ist auch minimal, trotzdem gibts Leute die danach 18 Jahre lang zahlen müssen ;)
Stellst du dir aber da irgendwie Equipment für mehrere 10.000 Euro hin weil du eben die Serverleistung brauchst, irgendwelche speziellen Dienste da sind oder sonstwas -> dann hast du einfach am falschen Ende gespart wenn du sagst "aber egal, eine Leitung reicht schon". Wenn dir zB. beim Cluster dann nen Split-Brain den ganzen Kram zerlegt hast du eben zwar nur _einen_ Ausfall gehabt und ggf. auch nur ne geringe Chance dafür gehabt... aber: Der Schaden ist trotzdem hoch...
Oder anders: Die Chance auf nen Ausfall ist ja (wenn man menschliches Versagen, falsche Konfig, Kabel Schäden,...) alles einrechnet erheblich höher als nen Lottogewinn... trotzdem spielen jede Woche Millionen Menschen Lotto... Die chance dürfte sogar erheblich höher als nen Jackpot im Casino sein - trotzdem sind die Läden in Las Vegas voll... Oder anders: Die chance das "die Pille" versagt ist auch minimal, trotzdem gibts Leute die danach 18 Jahre lang zahlen müssen ;)
Zitat von @Visucius:
Mal ne blöde Frage: Wie häufig kommt das denn in z.B. KMUs vor, dass wirklich auf die Redundanz zurückgegriffen wird? Und wenn ja, ist das denn hilfreich?
Ich meine: Bei nem Ausfall sucht man den Fehler, fehlt nur ein Teil des Durchsatzes, fällt das doch erstmal häufig gar nicht auf? Erst, wenn die zweite Leitung auch weg ist …
Mal ne blöde Frage: Wie häufig kommt das denn in z.B. KMUs vor, dass wirklich auf die Redundanz zurückgegriffen wird? Und wenn ja, ist das denn hilfreich?
Ich meine: Bei nem Ausfall sucht man den Fehler, fehlt nur ein Teil des Durchsatzes, fällt das doch erstmal häufig gar nicht auf? Erst, wenn die zweite Leitung auch weg ist …
Moin,
der Ausfall der Redundanz fällt dir auf, wenn du regelmäßig die Logs kontrollierst, bestenfalls auf einem Logging-Server für alle Geräte, oder du den Status der Ports mit einer Monitoringsoftware überwachst.
Klar kann man auch warten, bis die Probleme auftauchen und dann reagieren, aber mit Logging und/oder Monitoring wird der Betrieb halt proaktiver.
Gruß
TA
@maretz: Das ich was konstruieren kann ist schon klar 😉 Nur liegen ja die beiden Kabel nebeneinander. Wenn ich drüberrolle, knicke, bohre werden häufig beide betroffen sein. Werden sie nicht berührt, halten die doch „ewig“?
Mir ist schon klar, dass „doppelt“ besser hält – die Frage war eher ob das in der Praxis wirklich häufig vorkommt.
@TwistedAir: Ja ok, verstehe. Bin ja eher die Fraktion: „Das log suche ich, wenn was nicht läuft“ 😂
Aber „proaktiv“, akzeptiere ich – zumindest mal als Option 😉
Mir ist schon klar, dass „doppelt“ besser hält – die Frage war eher ob das in der Praxis wirklich häufig vorkommt.
@TwistedAir: Ja ok, verstehe. Bin ja eher die Fraktion: „Das log suche ich, wenn was nicht läuft“ 😂
Aber „proaktiv“, akzeptiere ich – zumindest mal als Option 😉
ich habe ien Frage zum LAG mit 1Gbit Ports.
Alle Fragen sind umfassend im hiesigen LAG Tutorial beantwortet:Link Aggregation (LAG) im Netzwerk
Einfach mal die Suchfunktion benutzen! 😉
Nur liegen ja die beiden Kabel nebeneinander. Wenn ich drüberrolle, knicke, bohre werden häufig beide betroffen sein. Werden sie nicht berührt, halten die doch „ewig“?
Mir ist schon klar, dass „doppelt“ besser hält – die Frage war eher ob das in der Praxis wirklich häufig vorkommt.
Hier mal ein Beispiel aus der Praxis: Ich binde Access Switches, die eh nur 1GbE oder sogar weniger haben, per LAG an einen Core Switch an. Das passiert innerhalb des Racks, eine Leitung läuft linksseitig durch den Kabelbaum, eine rechtsseitig. (Der Core Switch ist modular, ein Baum Links aufgelegt, einer Rechts - ich denke die Idee ist klar.) Es dient also durchaus der Verhinderung eines Single-Point-of-Failure und stellt Redundanz her.Mir ist schon klar, dass „doppelt“ besser hält – die Frage war eher ob das in der Praxis wirklich häufig vorkommt.
Aber du hast schon recht, eigentlich passiert dort gar nichts - nie. Es ist einfach nur Ausdruck eines guten Netzdesigns. Ich würde dafür keine Wand aufstemmen, aber wenn ich die Möglichkeit habe, würde ich wieder einen LAG legen.
Und das trotz weiterer, kleinerer Nachteile. Ich habe wirklich noch alte Access Switches weil - die sind ja noch gut... Wenn in den Teilen die Knopfzelle leer ist und der Strom mal weg bricht (Access Switches sind nicht an der USV weil alles dahinter auch keinen Strom hat) dann habe ich keine aktive LAG Config mehr und hinterher einen Loop.
Auch haben die Ports am Core Switch natürlich einen gewissen Preis. Dennoch: Aus meiner Sicht ist gutes Netzdesign das Vermeiden von Single-Point-of-Failure. Bei LAG ist es i.d.R. einfach nicht teuer und damit sauber umgesetzt.
Es kann ja auch nicht nur die Leitung selbst ausfallen -> du kannst ja auch einfach haben das dir zB. eben nen SFP abraucht. Und natürlich, wenn du beide/alle Leitungen mitm Kabelbinder möglichst zusammen packst werden die ggf. auch beide zerlegt. Aber selbst in nem Kabelkanal kann man ja probieren zB. eine links/oben und eine rechts/unten zu packen. Und natürlich - wenn dir der Blitz beim Sch... in den Ar... fährt dann is auch der Switch egal, du erhöhst halt nur die Chance das es eben NICHT passiert :D