Port Trunking bringt keine Leistungsverbesserung
Hallo, zusammen,
wir haben eine QNAP-Nas mit zwei Netzwerkports und einen trunking-fähigen Switch (HP ProCurve). Sowohl am Switch als auch an der NAS ist Port Trunking mit LCAP aktiviert, laut Switch Diagnose sind auch beide Links in der Kombination aktiv.
Ich habe vorher die Performance gemessen, wenn von zwei verschiedenen Rechnern zwei verschiedene Dateien herunterkopiert werden. Ein Rechner alleine mit einer Datei meldet ca. 110 MB / Sekunde (Windows-Anzeige, ich weiß...) - also volle Netzwerkperformance, zwei Rechner ohne Trunking ca. 60 Megabyte pro Sekunde.
Mit Trunking hätte ich erwartet, dass ein Rechner alleine bei 110 bleibt, aber bei zwei Rechnern zwei Mal 110 rauskommen. Die zwei Rechner bleiben jedoch bei 60...
Was mache ich falsch?
Danke für Eure Tipps!
Viele Grüße,
Martin
wir haben eine QNAP-Nas mit zwei Netzwerkports und einen trunking-fähigen Switch (HP ProCurve). Sowohl am Switch als auch an der NAS ist Port Trunking mit LCAP aktiviert, laut Switch Diagnose sind auch beide Links in der Kombination aktiv.
Ich habe vorher die Performance gemessen, wenn von zwei verschiedenen Rechnern zwei verschiedene Dateien herunterkopiert werden. Ein Rechner alleine mit einer Datei meldet ca. 110 MB / Sekunde (Windows-Anzeige, ich weiß...) - also volle Netzwerkperformance, zwei Rechner ohne Trunking ca. 60 Megabyte pro Sekunde.
Mit Trunking hätte ich erwartet, dass ein Rechner alleine bei 110 bleibt, aber bei zwei Rechnern zwei Mal 110 rauskommen. Die zwei Rechner bleiben jedoch bei 60...
Was mache ich falsch?
Danke für Eure Tipps!
Viele Grüße,
Martin
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 237134
Url: https://administrator.de/forum/port-trunking-bringt-keine-leistungsverbesserung-237134.html
Ausgedruckt am: 09.04.2025 um 23:04 Uhr
22 Kommentare
Neuester Kommentar
Hallo Martin,
du glaubst nicht, was für einen Marketing Wert eine zweite Nic hat - auch und insbesondere, wenn das dahinterstehende die NIC Leistung gar nicht ausnutzen kann (Bspw bei USV Netzwerkkarten macht eine GBE auch keinen Sinn.) und die Atom CPUs sind ja auch nicht die schnellsten. Vielleicht würde es aber bereits helfen, wenn du den RAM aufrüsten würdest.
LG
du glaubst nicht, was für einen Marketing Wert eine zweite Nic hat - auch und insbesondere, wenn das dahinterstehende die NIC Leistung gar nicht ausnutzen kann (Bspw bei USV Netzwerkkarten macht eine GBE auch keinen Sinn.) und die Atom CPUs sind ja auch nicht die schnellsten. Vielleicht würde es aber bereits helfen, wenn du den RAM aufrüsten würdest.
LG
Neben dem Test über Dateien, die auch noch fragmentiert sein könnten, stellt sich auch noch die Frage nach dem RAID-Level. Das erfordert ja auch Performance. Und der Test ist ungeeignet, da er ja überwiegend eine Richtung testet. Und er ist vermutlich auch ungeeignet, da die Festplattenköpfe ständig zwischen den beiden zu testenden Dateien hin und her schalten müssen.
Da musst du nun trennen zwischen Festplattenperformance und Schnittstellengeschwindigkeit.
NETIO sollte dir dabei helfen können.
Auf allen drei beteiligten Maschinen installieren und dann die diversen Kombinationen wie gehabt starten.
Gruß
Netman
Da musst du nun trennen zwischen Festplattenperformance und Schnittstellengeschwindigkeit.
NETIO sollte dir dabei helfen können.
Auf allen drei beteiligten Maschinen installieren und dann die diversen Kombinationen wie gehabt starten.
Gruß
Netman
Zitat von @IllusionFACTORY:
Naja, wenn sich rausstellen sollte, dass die NAS das gar nicht kann (auch nicht mit mehr RAM), würde das ja den Tatbestand
des Betruges erfüllen (und ich bin mir der juristischen Voraussetzungen für diesen Tatbestand durchaus bewußt und
benutze ihn nicht im Sinne der vielen "Betrug"-Schreier
).
Kann ich mir also eigentlich nicht vorstellen bei einem etablierten Hersteller, das das gar nicht geht.
Ich reiche nachher die Performancetests nach. Danke erst mal für Eure Meinungen!
Viele Grüße,
Martin
Naja, wenn sich rausstellen sollte, dass die NAS das gar nicht kann (auch nicht mit mehr RAM), würde das ja den Tatbestand
des Betruges erfüllen (und ich bin mir der juristischen Voraussetzungen für diesen Tatbestand durchaus bewußt und
benutze ihn nicht im Sinne der vielen "Betrug"-Schreier
Kann ich mir also eigentlich nicht vorstellen bei einem etablierten Hersteller, das das gar nicht geht.
Ich reiche nachher die Performancetests nach. Danke erst mal für Eure Meinungen!
Viele Grüße,
Martin
Warum sollte das Betrug sein? Sie Preisen ja keinen Durchsatz an? Je nachdem können Zwei NICs ja auch dazu gut sein, dass zwei dedizierte Netze angebunden werden können (Produktiv/Backup) und diese werden seltenst additiv genutzt.
http://www.tweaktown.com/reviews/5037/qnap_ts_869_pro_8_bay_nas_review/ ...
Darum ist Tests davor anschauen immer sinnvoll. (ist aber die Pro Version, die Specs sind auf den ersten Blick aber ähnlich)
Zitat von @IllusionFACTORY:
Danke für den Hinweis - ist RAID 5. Da sollten 8 Platten jawohl 200 MB pro Sekunde liefern können, richtig?
Ist die Richtung nicht für den Test irrelevant? Lerne da gerne dazu.
Zum konkurrierenden Zugriff: Wenn ich es richtig verstanden habe, greift der Performance-Vorteil ja ohnehin nur bei (mindestens)
zwei gleichzeitigen Zugriffen - ein einzelner PC bekommt ja nicht auf einma 200 MB Performance (weil er selbst nur mit 1 GBit am
Netz hängt). Dann sind zwei Dateien gleichzeitif doch ohnehin die Standardanwendung oder?
NETIO teste ich - danke (ist ATTO auch okay?)
Gruß,
Martin
Danke für den Hinweis - ist RAID 5. Da sollten 8 Platten jawohl 200 MB pro Sekunde liefern können, richtig?
Ist die Richtung nicht für den Test irrelevant? Lerne da gerne dazu.
Zum konkurrierenden Zugriff: Wenn ich es richtig verstanden habe, greift der Performance-Vorteil ja ohnehin nur bei (mindestens)
zwei gleichzeitigen Zugriffen - ein einzelner PC bekommt ja nicht auf einma 200 MB Performance (weil er selbst nur mit 1 GBit am
Netz hängt). Dann sind zwei Dateien gleichzeitif doch ohnehin die Standardanwendung oder?
NETIO teste ich - danke (ist ATTO auch okay?)
Gruß,
Martin
Nein, du kannst mit einem PC sowieso nur die 125MB als faktische Obergrenze (abzgl Overhead) machen (1GBit/8). Aber das packt die auch. Nur im Hintergrund eben nicht, weil 200MB heisst, dass du einen Lesezugriff hast - der dann aber gebündelt sein müsste - springen die Plattenköpfe hin und her kostet das natürlich Zeit.
ATTO - ist als Festplattentool wohl weniger geeignet.
NETIO - läuft nur im Prozessor ohne Platten.
iperf - als Java-APP läuft auch nur im Speicher.
RAID-Systeme haben stark unterschiedliche Schreib- und Lesegeschwindigkeiten, da sie ja fürs Schreiben die Redundanz mit berechnen und versorgen müssen. Raid 5 mit 8 Platten ist schon ein arger Kompromiss in Richtung Datensicherheit. Da ist wenig Redundanz. Hoffentlich hast du eine Ersatzplatte da liegen.
Aber für jeden Schreib- oder Lesevorgangvorgang müssen acht Plattenköpfe positioniert werden. Das sind schon Anforderungen, die nicht mehr zur Performance beitragen. Dann noch wechseln für die beiden Clients.
Wir warten auf die Testergebnisse.
Gruß
Netman
NETIO - läuft nur im Prozessor ohne Platten.
iperf - als Java-APP läuft auch nur im Speicher.
RAID-Systeme haben stark unterschiedliche Schreib- und Lesegeschwindigkeiten, da sie ja fürs Schreiben die Redundanz mit berechnen und versorgen müssen. Raid 5 mit 8 Platten ist schon ein arger Kompromiss in Richtung Datensicherheit. Da ist wenig Redundanz. Hoffentlich hast du eine Ersatzplatte da liegen.
Aber für jeden Schreib- oder Lesevorgangvorgang müssen acht Plattenköpfe positioniert werden. Das sind schon Anforderungen, die nicht mehr zur Performance beitragen. Dann noch wechseln für die beiden Clients.
Wir warten auf die Testergebnisse.
Gruß
Netman
Zitat von @IllusionFACTORY:
Sorry, wenn ich nochmal nachfrage
Ich möcht's gerne verstehen.
Ich habe ja Plattenperformace -> limitiert durch NAS Systemperformace -> limietiert durch Netzwerkperformance ->
Kopierperformance.
Wenn ich jetzt mal davon ausgehe, dass ich mit acht Platten im Raid5 zwei Dateien gleichzeitig mit locker 200 MB pro Sekunde
kopieren kann (richtig?), dann kann die Limitation nur durch das System (der verlinkte Test vermutet zu wenig RAM, das werde ich
nachkaufen) und wenn's das nicht ist dann durch die Netzwerkperformance limitiert sein.
Ich teste auf jeden Fall mal und melde mich wieder mit den Ergebnissen.
Viele Grüße,
Martin
Sorry, wenn ich nochmal nachfrage
Ich habe ja Plattenperformace -> limitiert durch NAS Systemperformace -> limietiert durch Netzwerkperformance ->
Kopierperformance.
Wenn ich jetzt mal davon ausgehe, dass ich mit acht Platten im Raid5 zwei Dateien gleichzeitig mit locker 200 MB pro Sekunde
kopieren kann (richtig?), dann kann die Limitation nur durch das System (der verlinkte Test vermutet zu wenig RAM, das werde ich
nachkaufen) und wenn's das nicht ist dann durch die Netzwerkperformance limitiert sein.
Ich teste auf jeden Fall mal und melde mich wieder mit den Ergebnissen.
Viele Grüße,
Martin
Nein, nicht unbedingt. manchmal kann die System oder Plattenperformance auch die Netzwerkperformance limitieren und je nachdem macht dein Raid und dein doppeltes Zugreifen noch etwas mehr Overhead. Ggf. könntest du mal testen zwei eigene Raids aus je 4 Platten zu machen, könnte helfen - natürlich nicht, wenn beide dann doch wieder auf denselben Plattenpool zugreifen.
Moin,
abseits der Leistung des NAS gibt es ja auch diverse Moeglichkeiten des Trunkings, z.B. wird bei diversen Verfahren die Source- und/oder Destination MAC Adresse zur Wahl des Interfaces genutzt. Dabei kann es abhaengig von den MAC Adressen durchaus by design so sein das beide PC das gleiche Netzwerkinterface nutzen.
VG,
Thomas
abseits der Leistung des NAS gibt es ja auch diverse Moeglichkeiten des Trunkings, z.B. wird bei diversen Verfahren die Source- und/oder Destination MAC Adresse zur Wahl des Interfaces genutzt. Dabei kann es abhaengig von den MAC Adressen durchaus by design so sein das beide PC das gleiche Netzwerkinterface nutzen.
VG,
Thomas
Nicht denken sondern nachdenken... !!
Hier bist du einer "Illusion" vermutlich durch falsches Halbwissen auferlegen. Du solltest vielleicht erstmal besser lesen was LACP eigentlich ganz genau ist. Bei dir scheitert das ja schonmal gleich an der richtigen Schreibweise was leider indirekt viel über deinen Kenntnisstand zu diesem Thema verrät
Daher auch diese Raterei hier im freien Fall !
Nur so viel: LACP ist ein Protokoll was rein die Bündelung der Links bewerkstelligt hat aber mit dem eigentlichen Last Verteilungs Algorythmus dahinter rein gar nix zu tun !
Das ist IEEE 802.3ad und ist wie immer ein Hashing Verfahren. Aktive Sessions werden also aufgrund einen Hash Wertes über die letzten 4 Bit der Mac Adresse auf die einzelnen gebündelten Links VERTEILT.
http://de.wikipedia.org/wiki/Link_Aggregation
Switches von besseren Herstellern im Premium Segment nehmen meist noch den TCP und UDP Port in die Hash Berechnung mit rein um die Verteilung granularer zu machen. Bei nur wenigen Mac Adressen bekommt man wegen dieser Hashing Problematik niemals eine 50 zu 50 Verteilung sondern immer sowas wie 80 zu 20 oder noch schlechter.
Eine Session hat also nie mehr Bandbreite als ein einzelner Link. Nur durch die Kummulation der Links kann so eine Verbindung mehr Sessions aufnehmen ohne das es zu einer Überlast kommt.
Lies dir diese Forumsthreads hier geneuer durch, dann weisst du wenigstens halbwegs worum es geht...(hoffentlich ?!)
Link Aggregation zur Speederhöhung zwischen 2 Switches herstellen
Motherboard mit 2 Onboard LAN Anschlüssen
Traffic am Server auf 2 NICs verteilen
Kann man einen Server zur Performacesteigerung mit 2 Netzwerkkarten parallel an einem Switch betreiben? Wenn ja mit welcher Konfiguration ?
Bonding mit Broadcom - SLB
Auch dieses MS Dokument beschreibt den 802.3ad Algorythmus: http://www.microsoft.com/en-us/download/details.aspx?id=40319
Hier bist du einer "Illusion" vermutlich durch falsches Halbwissen auferlegen. Du solltest vielleicht erstmal besser lesen was LACP eigentlich ganz genau ist. Bei dir scheitert das ja schonmal gleich an der richtigen Schreibweise was leider indirekt viel über deinen Kenntnisstand zu diesem Thema verrät
Daher auch diese Raterei hier im freien Fall !
Nur so viel: LACP ist ein Protokoll was rein die Bündelung der Links bewerkstelligt hat aber mit dem eigentlichen Last Verteilungs Algorythmus dahinter rein gar nix zu tun !
Das ist IEEE 802.3ad und ist wie immer ein Hashing Verfahren. Aktive Sessions werden also aufgrund einen Hash Wertes über die letzten 4 Bit der Mac Adresse auf die einzelnen gebündelten Links VERTEILT.
http://de.wikipedia.org/wiki/Link_Aggregation
Switches von besseren Herstellern im Premium Segment nehmen meist noch den TCP und UDP Port in die Hash Berechnung mit rein um die Verteilung granularer zu machen. Bei nur wenigen Mac Adressen bekommt man wegen dieser Hashing Problematik niemals eine 50 zu 50 Verteilung sondern immer sowas wie 80 zu 20 oder noch schlechter.
Eine Session hat also nie mehr Bandbreite als ein einzelner Link. Nur durch die Kummulation der Links kann so eine Verbindung mehr Sessions aufnehmen ohne das es zu einer Überlast kommt.
Lies dir diese Forumsthreads hier geneuer durch, dann weisst du wenigstens halbwegs worum es geht...(hoffentlich ?!)
Link Aggregation zur Speederhöhung zwischen 2 Switches herstellen
Motherboard mit 2 Onboard LAN Anschlüssen
Traffic am Server auf 2 NICs verteilen
Kann man einen Server zur Performacesteigerung mit 2 Netzwerkkarten parallel an einem Switch betreiben? Wenn ja mit welcher Konfiguration ?
Bonding mit Broadcom - SLB
Auch dieses MS Dokument beschreibt den 802.3ad Algorythmus: http://www.microsoft.com/en-us/download/details.aspx?id=40319
wir haben jetzt mal mit 4 Maschinen gleichzeitig kopiert
Spannend wäre mit WAS kopiert wurde ??Wenn es SMB / CIFS ( MS Dateisharing) ist ist das eher kontraproduktiv und sagt rein gar nichts aus. Wie jeder netzwerker weiss ist SMB/CIFS eines der uneffizentesten Protokolle da es ausschliesslich nur kleine Pakete zw. 64 und 128 Bytes benutzt also per se aus Protokollstruktur schon sehr langsam ist.
Kann man also nur hoffen das das wenigstens mit FTP o.ä. passiert ist.
NetIO oder iPerf wären natürlich noch sinnvoller, da sie diesen sinnlosen Overhead erst gar nicht haben.
Es bleibt also spannend....
Sinnvoll wäre auch mal ein sh interface der aggregierten Interfaces zu posten, denn an den Statistiken kann man ungefähr ablesen WIE die Session Verteilung der 4 Maschinen ist.
Vorher natürlich mit "clear stat" die Statistiken zurücksetzen !!
Sofern der Switch SNMP kann ist es sehr hilfreich sich das auch mal grafisch anzusehen.
Ein kleines Tools wie der SNMP-TG
http://leonidvm.chat.ru
Kannst du pro Link einmal starten und hast dann sehr gut sichtbar die Lastverteilung der einzelnen Links vor dem Auge und kannst das auch optisch auswerten.
wenn ich auf einem share zugreife passiert das mit SMB und CIFS oder?
Nööö... nur wenn du mit Winblows Sharing arbeitest.Es gibt aber auch noch NFS oder iSCSI in einer Winblows Umgebung.
In der Regel ist das simple "freigeben" von Shares aber immer SMB/CIFS bei Clients untereinander sowieso !
Zum Testen der Endgeräte Performance als das denkbar Schlechteste was man machen kann.
NetIO oder iPerf ist das besser...oder wenn man File Transfer machen will FTP oder SCP usw.