10GBit s SFP+ installiert, Übertragung max. 6GBit s
Hallo allerseits,
folgende Frage: Ich habe in meinem NAS (TrueNAS Core auf ASUS P10S WS mit Intel Celeron Prozessor) einen schicken SFP+ 10GBit/s Netwerkadapter vom Typ Solarflare SFL7122 installiert - läuft stabil und ohne Probleme. Gleiche NIC auf einem Lenovo M83 SFF unter Debian. Auch hier läuft alles stabil. In beiden Systemen habe ich einen (den) PCI-E x16 Steckplatz benutzt.
Verbunden habe ich beide Systeme mittels eines vorhandenen HP Procurve SFP+ 3m DirectAttach Kabels (J9283B).
Ein Test mit iperf3 kommt auf max 6GBit/s Durchsatz.
Auf der NAS hab ich iperf3 als Daemon gestartet:
Auf dem PC habe:
Ergebnis:
Kann es sein, dass der eher mäßige Duchsatz mit dem DirectAttach-Kabel zusammenhängt? Oder anders gefragt, kann es bezüglich der Performance sinnvoll sein, auf geeignete GBICs und Multimode Kabel zu setzen? Wenn ich dann auf 6,5GBit/s komme, würde ich mich schwertun, lande ich aber vielleicht bei 9GBit/s oder mehr, wäre die Investition durchaus überlegenswert.
Danke.
VG mhard666
folgende Frage: Ich habe in meinem NAS (TrueNAS Core auf ASUS P10S WS mit Intel Celeron Prozessor) einen schicken SFP+ 10GBit/s Netwerkadapter vom Typ Solarflare SFL7122 installiert - läuft stabil und ohne Probleme. Gleiche NIC auf einem Lenovo M83 SFF unter Debian. Auch hier läuft alles stabil. In beiden Systemen habe ich einen (den) PCI-E x16 Steckplatz benutzt.
Verbunden habe ich beide Systeme mittels eines vorhandenen HP Procurve SFP+ 3m DirectAttach Kabels (J9283B).
Ein Test mit iperf3 kommt auf max 6GBit/s Durchsatz.
Auf der NAS hab ich iperf3 als Daemon gestartet:
iperf3 -s -D
Auf dem PC habe:
iperf3 -c <IP der NAS> -t 3600
Ergebnis:
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-3600.00 sec 2.44 TBytes 5.97 Gbits/sec 0 sender
[ 5] 0.00-3600.03 sec 2.44 TBytes 5.97 Gbits/sec receiver
Kann es sein, dass der eher mäßige Duchsatz mit dem DirectAttach-Kabel zusammenhängt? Oder anders gefragt, kann es bezüglich der Performance sinnvoll sein, auf geeignete GBICs und Multimode Kabel zu setzen? Wenn ich dann auf 6,5GBit/s komme, würde ich mich schwertun, lande ich aber vielleicht bei 9GBit/s oder mehr, wäre die Investition durchaus überlegenswert.
Danke.
VG mhard666
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 1496061859
Url: https://administrator.de/forum/10gbit-s-sfp-installiert-uebertragung-max-6gbit-s-1496061859.html
Ausgedruckt am: 22.12.2024 um 16:12 Uhr
16 Kommentare
Neuester Kommentar
Hi,
kann natürlich auch einfach sein, dass deine Hardware am Limit angekommen ist. Wenn ich auf meinem Xeon E3 v5 mit Premiere Pro ein Video rendere, was mir 97% Last gibt, dann bekomm ich auch nicht mehr wie 70Mbit durchs Netz. Bei mir ist natürlich auch kein Hardware-Offload aktiv, da WLAN, aber möglich, dass das auch bei dir der Fall ist. Schau mal auf die Auslastung vom Celeron bzw. deinem PC während der Übertragung.
kann natürlich auch einfach sein, dass deine Hardware am Limit angekommen ist. Wenn ich auf meinem Xeon E3 v5 mit Premiere Pro ein Video rendere, was mir 97% Last gibt, dann bekomm ich auch nicht mehr wie 70Mbit durchs Netz. Bei mir ist natürlich auch kein Hardware-Offload aktiv, da WLAN, aber möglich, dass das auch bei dir der Fall ist. Schau mal auf die Auslastung vom Celeron bzw. deinem PC während der Übertragung.
Zitat von @chgorges:
Glaskugel sagt, dass du SATA-SSDs verwendest und die SATAIII-Schnittstelle endet nun mal bei 6GBit/s...
Glaskugel sagt, dass du SATA-SSDs verwendest und die SATAIII-Schnittstelle endet nun mal bei 6GBit/s...
Zitat von @Globetrotter:
10 GB sind eine Menge welche normale SSD's nicht packen wegen dem Anschluss an den BUS.
Grusss Globe
10 GB sind eine Menge welche normale SSD's nicht packen wegen dem Anschluss an den BUS.
Grusss Globe
Iperf nutzt kein Disk IO für die Bandwidth Tests, das geht alles übers RAM außer man verwendet den Parameter -F
Wat fürn' Celeron? Wat fürn' RAM?
Hast du mal mit parallelen Streams getestet?
Hast du mal mit parallelen Streams getestet?
TCP-Window geprüft/angepasst?
Max. Throughput = TCP Window / RTT
Max. Throughput = TCP Window / RTT
Zitat von @mhard666:
@chgorges
iperf3 macht keinen Schreib/Lese Test auf die Festplatte. Es wird der reine Netzwerkdurchsatz getestet. Und der ist für 10GBit/s sackig.
@chgorges
iperf3 macht keinen Schreib/Lese Test auf die Festplatte. Es wird der reine Netzwerkdurchsatz getestet. Und der ist für 10GBit/s sackig.
Selbst dann limitiert der PCIE-Bus.
Dein ASUS P10S WS Mainboard hat PCIE 3.0, AddOn-Netzwerkkarten nutzen zwischen 4 und max. 8 Lanes, je nachdem was das System rausgibt.
Heißt dein System "dümpelt" nach Spezifikation irgendwo zwischen 3,9 und 7,8 GBit/s brutto rum, mehr geht bei deinem Aufbau nicht.
Und dein Lenovo mit Asbach-Q85 Chipsatz kann nur PCIE2.0, da bleibst du im Idealfall schon bei 4GBit/s hängen, wobei der Chipsatz maximal 8 Lanes hat und sicherlich nicht alles der NIC zuordnet.
VG
Zitat von @chgorges:
Selbst dann limitiert der PCIE-Bus.
Dein ASUS P10S WS Mainboard hat PCIE 3.0, AddOn-Netzwerkkarten nutzen zwischen 4 und max. 8 Lanes, je nachdem was das System rausgibt.
Heißt dein System "dümpelt" nach Spezifikation irgendwo zwischen 3,9 und 7,8 GBit/s brutto rum, mehr geht bei deinem Aufbau nicht.
Nee, PCIe 3.0 bietet pro Lane 8GBits/s (1GB/s), bei x4 wären das also schon 32GBit/s Brutto, also völlig ausreichend.Selbst dann limitiert der PCIE-Bus.
Dein ASUS P10S WS Mainboard hat PCIE 3.0, AddOn-Netzwerkkarten nutzen zwischen 4 und max. 8 Lanes, je nachdem was das System rausgibt.
Heißt dein System "dümpelt" nach Spezifikation irgendwo zwischen 3,9 und 7,8 GBit/s brutto rum, mehr geht bei deinem Aufbau nicht.
Zitat von @chgorges:
Und dein Lenovo mit Asbach-Q85 Chipsatz kann nur PCIE2.0, da bleibst du im Idealfall schon bei 4GBit/s hängen, wobei der Chipsatz maximal 8 Lanes hat und sicherlich nicht alles der NIC zuordnet.
Selbst hier wären es bei x4 und 500MB/s pro Lane 2GB/s also auch weit über den Werten die eine 10GBits Karte erreicht.Und dein Lenovo mit Asbach-Q85 Chipsatz kann nur PCIE2.0, da bleibst du im Idealfall schon bei 4GBit/s hängen, wobei der Chipsatz maximal 8 Lanes hat und sicherlich nicht alles der NIC zuordnet.