NETIO - Performancefragen
Servus zusammen,
Engpässen im Netzwerk auf der Spur bin ich heute mit NETIO am testen gewesen.
Sehr enttäuschend, oder ?
Blech: Server 2016 installierte Hyper-V-Rolle hat u.a. eine Mellanox-X2 SFP+, Xeon 2620v3, 64GB RAM
NAS QNAP TS-563 hat eine QNAP-10GBE-SFP+-Karte
Verbunden sind beide per Kabel, kein Switch dazwischen.
Vom Server auf das NAS: (Warum empfängt er deutlich mehr, als er senden kann?)
Server auf die IP der lokalen Mellanox:
Eine VM, die auf dem gleichen Blech läuft:
Ein Test mit der 1GBE-Verbindung zeigt normale Werte:
Kann mir jemand erklären, wieso da so unterschiedliche Werte dabei rauskommen ?
Treiber der NICs sind auf dem aktuellsten Stand.
Grüße, Henere
Engpässen im Netzwerk auf der Spur bin ich heute mit NETIO am testen gewesen.
Sehr enttäuschend, oder ?
Blech: Server 2016 installierte Hyper-V-Rolle hat u.a. eine Mellanox-X2 SFP+, Xeon 2620v3, 64GB RAM
NAS QNAP TS-563 hat eine QNAP-10GBE-SFP+-Karte
Verbunden sind beide per Kabel, kein Switch dazwischen.
Vom Server auf das NAS: (Warum empfängt er deutlich mehr, als er senden kann?)
Packet size 1k bytes: 333.54 MByte/s Tx, 651.31 MByte/s Rx.
Packet size 2k bytes: 390.64 MByte/s Tx, 739.66 MByte/s Rx.
Packet size 4k bytes: 431.80 MByte/s Tx, 750.56 MByte/s Rx.
Packet size 8k bytes: 461.40 MByte/s Tx, 742.01 MByte/s Rx.
Packet size 16k bytes: 481.40 MByte/s Tx, 758.96 MByte/s Rx.
Packet size 32k bytes: 487.41 MByte/s Tx, 753.96 MByte/s Rx.
Done.
Server auf die IP der lokalen Mellanox:
Packet size 1k bytes: 179.47 MByte/s Tx, 182.01 MByte/s Rx.
Packet size 2k bytes: 228.46 MByte/s Tx, 218.68 MByte/s Rx.
Packet size 4k bytes: 326.75 MByte/s Tx, 311.61 MByte/s Rx.
Packet size 8k bytes: 466.41 MByte/s Tx, 448.16 MByte/s Rx.
Packet size 16k bytes: 588.76 MByte/s Tx, 585.88 MByte/s Rx.
Packet size 32k bytes: 784.32 MByte/s Tx, 755.45 MByte/s Rx.
Done.
Eine VM, die auf dem gleichen Blech läuft:
Packet size 1k bytes: 274.70 MByte/s Tx, 251.06 MByte/s Rx.
Packet size 2k bytes: 299.51 MByte/s Tx, 241.84 MByte/s Rx.
Packet size 4k bytes: 392.68 MByte/s Tx, 335.01 MByte/s Rx.
Packet size 8k bytes: 350.72 MByte/s Tx, 526.53 MByte/s Rx.
Packet size 16k bytes: 375.85 MByte/s Tx, 588.62 MByte/s Rx.
Packet size 32k bytes: 402.49 MByte/s Tx, 633.03 MByte/s Rx.
Done.
Ein Test mit der 1GBE-Verbindung zeigt normale Werte:
Receiving from client, packet size 1k ... 109.43 MByte/s
Sending to client, packet size 1k ... 99.48 MByte/s
Receiving from client, packet size 2k ... 109.97 MByte/s
Sending to client, packet size 2k ... 110.44 MByte/s
Receiving from client, packet size 4k ... 111.53 MByte/s
Sending to client, packet size 4k ... 112.43 MByte/s
Receiving from client, packet size 8k ... 111.60 MByte/s
Sending to client, packet size 8k ... 112.19 MByte/s
Receiving from client, packet size 16k ... 111.79 MByte/s
Sending to client, packet size 16k ... 112.45 MByte/s
Receiving from client, packet size 32k ... 112.12 MByte/s
Sending to client, packet size 32k ... 112.88 MByte/s
Done.
TCP server listening.
Kann mir jemand erklären, wieso da so unterschiedliche Werte dabei rauskommen ?
Treiber der NICs sind auf dem aktuellsten Stand.
Grüße, Henere
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 385290
Url: https://administrator.de/forum/netio-performancefragen-385290.html
Ausgedruckt am: 19.04.2025 um 16:04 Uhr
33 Kommentare
Neuester Kommentar
Moin,
zumindest das erste ist ggf. einfach: Je nach deinem Systemaufbau. Mein NAS hat z.B. eine SSD als Cache -> damit kann die natürlich gut was empfangen. Beim Lesen ist der Cache aber natürlich nutzlos wenn es unterschiedliche Dateien sind -> dann bin ich auf die (langsameren) Disks angewiesen. Im dümmsten Fall (je nach Test-Zeitraum) schiesst hier sogar die SSD noch quer - ich mache den Lesetest aber gleichzeitig ist der SSD-Cache noch am zurückschreiben.
Von daher ist das halt abhängig von deiner Umgebung, kann aber durchaus normal sein.
Dasselbe gilt bei deinen lokalen Tests: Deine Festplatten müssen ja jetzt lesen und schreiben gleichzeitig -> da es zwar x VMs gibt aber eben (vermutlich) nur ein Storage-System. Im dümmsten Fall ist das sogar per 10 GBit angebunden - und damit misst du dann eben wieder eigentlich nur die Performance deines NAS-Systems.
zumindest das erste ist ggf. einfach: Je nach deinem Systemaufbau. Mein NAS hat z.B. eine SSD als Cache -> damit kann die natürlich gut was empfangen. Beim Lesen ist der Cache aber natürlich nutzlos wenn es unterschiedliche Dateien sind -> dann bin ich auf die (langsameren) Disks angewiesen. Im dümmsten Fall (je nach Test-Zeitraum) schiesst hier sogar die SSD noch quer - ich mache den Lesetest aber gleichzeitig ist der SSD-Cache noch am zurückschreiben.
Von daher ist das halt abhängig von deiner Umgebung, kann aber durchaus normal sein.
Dasselbe gilt bei deinen lokalen Tests: Deine Festplatten müssen ja jetzt lesen und schreiben gleichzeitig -> da es zwar x VMs gibt aber eben (vermutlich) nur ein Storage-System. Im dümmsten Fall ist das sogar per 10 GBit angebunden - und damit misst du dann eben wieder eigentlich nur die Performance deines NAS-Systems.
Zitat von @maretz:
Moin,
zumindest das erste ist ggf. einfach: Je nach deinem Systemaufbau. Mein NAS hat z.B. eine SSD als Cache -> damit kann die natürlich gut was empfangen. Beim Lesen ist der Cache aber natürlich nutzlos wenn es unterschiedliche Dateien sind -> dann bin ich auf die (langsameren) Disks angewiesen. Im dümmsten Fall (je nach Test-Zeitraum) schiesst hier sogar die SSD noch quer - ich mache den Lesetest aber gleichzeitig ist der SSD-Cache noch am zurückschreiben.
Moin,
zumindest das erste ist ggf. einfach: Je nach deinem Systemaufbau. Mein NAS hat z.B. eine SSD als Cache -> damit kann die natürlich gut was empfangen. Beim Lesen ist der Cache aber natürlich nutzlos wenn es unterschiedliche Dateien sind -> dann bin ich auf die (langsameren) Disks angewiesen. Im dümmsten Fall (je nach Test-Zeitraum) schiesst hier sogar die SSD noch quer - ich mache den Lesetest aber gleichzeitig ist der SSD-Cache noch am zurückschreiben.
Netio mißt den Netzwerkdurchsatz, nicht den Durchsatz zum Massenspeicher. Von daher ist diese Erklrärung unzutreffend.
> Von daher ist das halt abhängig von deiner Umgebung, kann aber durchaus normal sein.
Das gilt immer, daß es von der lokalen Umgebung ist.
lks
Zitat von @Henere:
Das ist die Auswertung von NETIO. Da ist m.W. nach keinerlei HDD / Storage im Spiel.
Das ist die Auswertung von NETIO. Da ist m.W. nach keinerlei HDD / Storage im Spiel.
hast Du direkt ohne weitere geräte im Netz gemessen, also die jeweligen Geräte direkt miteinander ohne switch verbunden oder war Deine ganze Infrastruktur gleichzeitig aktiv?
lks
PS:
Ich tippe mal, daß die betroffene Kiste trotz GBit-Interface nicht die "Infrastruktur" hinter dem Interface hat, auch tatsächlich die Geschwindigkeit zu verarbeiten. z.B. Engpaß zwischen PCI-Bus und Netzwerkcip.
Oder etwas ist in Deiner Infrastruktur, daß die Werte beeinflußt. ißt mal direkt ohn eweiter Infrastruktur zwischendrin.
Hallo,
Mal geschaut wie z.B. RSS (Receive Side Scaling) und andere Parameter eingestellt sein müssen damit du in beiden Richtungen deine Theoretischen 1250 MByte/s auch nur annähernd erreichen kannst? Dein gemessener Wert von Packet size 32k bytes: 784.32 MByte/s Tx, 755.45 MByte/s Rx. sind grad mal an die 80% dran. Bei GBit/s NICS gab es auch mal das Problem das eine Seite des Transfers nur ungefaähr die hälfte von dem konnte was in der anderen Richtung möglich war. RSS und diverse andere Parameter mussten je nach OS angepasst werden, manchmal half nur eine andere NIC.
Gruß,
Peter
Mal geschaut wie z.B. RSS (Receive Side Scaling) und andere Parameter eingestellt sein müssen damit du in beiden Richtungen deine Theoretischen 1250 MByte/s auch nur annähernd erreichen kannst? Dein gemessener Wert von Packet size 32k bytes: 784.32 MByte/s Tx, 755.45 MByte/s Rx. sind grad mal an die 80% dran. Bei GBit/s NICS gab es auch mal das Problem das eine Seite des Transfers nur ungefaähr die hälfte von dem konnte was in der anderen Richtung möglich war. RSS und diverse andere Parameter mussten je nach OS angepasst werden, manchmal half nur eine andere NIC.
Gruß,
Peter
Hallo,
Das ist uns allen Klar.
Ich wäre es bei einer 10 GBit/s Verbindung nicht
Und wenn du mal nach Receive Side Scaling Mellanox suchst...

Gruß,
Peter
Das ist uns allen Klar.
Auf der Windowsseite ist alles auf Standard.
Haben wir uns auch so vorgestellt.Bin ja auch zufrieden mit den durchschnittlichen 500MByte/s die das Windows Backup aufs NAS feuert. Aber mich haben die Werte einfach verwundert.
Warum dann diesen Fred, wenn du mit deinen erzielten Werten von ca. 500 MByte/s zufrieden bist? Entweder ist es ein Problem für dich oder nicht. Wenn nicht dann Schreib doch dazu das du keinen Informationsaustausch wünscht da du ja mit den Werten zufrieden bist. Kaffee rüberschieb,
Leerer Kaffebecher zurückschieb Gruß,
Peter
Nur mal nebenbei gefragt:
Hast du auf dem Switch und den beteiligten NICs Jumbo Framing aktiviert ??
Generell sollte man das eigentlich bei 1G und besonders bei den höheren Geschwindigkeiten machen.
Das sollte dann eigentlich den Durchsatz bei 10G nochmal deutlich erhöhen.
Du siehst ja das der Durchsatz bei kleineren Paketen deutlich schlechter ist was auf eine schlechtere Performance bei der L2 Fragmentierung schliessen lässt.
Jumbo Frames sind hier Pflicht.
Beispiel Cisco SG Switch:
Hast du auf dem Switch und den beteiligten NICs Jumbo Framing aktiviert ??
Generell sollte man das eigentlich bei 1G und besonders bei den höheren Geschwindigkeiten machen.
Das sollte dann eigentlich den Durchsatz bei 10G nochmal deutlich erhöhen.
Du siehst ja das der Durchsatz bei kleineren Paketen deutlich schlechter ist was auf eine schlechtere Performance bei der L2 Fragmentierung schliessen lässt.
Jumbo Frames sind hier Pflicht.
Beispiel Cisco SG Switch:
Ich hab auf dem NAS auf 9000 umgestellt. Das gleiche dann bei der Mellanox im Server.
Nicht alle MTU Größen sind supportet !!Das ist auch bei Switchen durchaus unterschiedlich und nicht beliebig !!
Du musst also genau in die Treiber Spezifikationen sehen bei Server und Clients bzw. NICs was die beiu Jumbo Framing als maximale MTU supporten.
Idealerweise haben Hersteller nur einen dummen Schalter Jumbo an oder aus was das entsprechend setzt.
Musst du aber die MTU bei Jumbo Support spezifisch setzen dann gilt immer die Vorgabe des Herstellers !
Mit DAC oder LWL Kabel hat das übrigens nichts zu tun. Das ist Layer 1 und spielt keine Rolle.
Dann nimm mal nicht die Maximalwerte sondern einen drunter.
Setz den QNAP auf 7418 und gebe die MTU für den Mellanox mit dem identischen Wert ein !
Viele Geräte akzeptieren eine MTU Änderung nur mit einem Reboot !! Hast du das QNAP auch mal rebootet.
Sollte es immer noch blockieren ist das de facto ein Bug.
Die MTU sagt ja nur das auch 7k Frames akzeptiert werden ohne Fragmentierung. Für einen SSH oder Web Zugriff spielt die MTU keine Rolle.
Also entweder Bug oder du musst rebooten damit die MTU Einstellung aktiv wird.
Nur mal doof nachgefragt: Ist das ein 10g Base T Anschluss ??
Wenn ja ist sowas für Storage / NAS und Server immer kontraproduktiv, denn bei 10G Base T hat man nie eine Garantie auf 10G. Das ist immer ein Autonegotiating je nach Kabel Qualität. Ein Knick oder schlechter Stecker und es kommen nur noch 8G an oder entsprechend weniger.
Das ist ein großes Manko von 10G Base T. Deshalb wird es in seriösen netzwerken niemals für Server und Storage verwendet. Besser sind hier immer SFP+ Ports und DAC / Twinax Kabel die immer 10G garantieren. Oder eben LWL.
Möglich das du also in diese Falle rennst. Normal wirkt sich das aber erst bei Längen jenseits der 5-10m aus. Bei kürzeren Patch Strippen eher selten.
Setz den QNAP auf 7418 und gebe die MTU für den Mellanox mit dem identischen Wert ein !
QNAP etwas anderes als die 1500 einstelle hängt sich das Teil Netzwerkseitig auf und ich komme nicht mehr dran
Auch wenn du das Kabel ziehst um so eine Renegotiation zu erzwingen.Viele Geräte akzeptieren eine MTU Änderung nur mit einem Reboot !! Hast du das QNAP auch mal rebootet.
Sollte es immer noch blockieren ist das de facto ein Bug.
Die MTU sagt ja nur das auch 7k Frames akzeptiert werden ohne Fragmentierung. Für einen SSH oder Web Zugriff spielt die MTU keine Rolle.
Also entweder Bug oder du musst rebooten damit die MTU Einstellung aktiv wird.
Oder liege ich da gedanklich falsch ?
Nein, liegst du nicht. Die Werte sind in der Tat jämmerlich für 10GNur mal doof nachgefragt: Ist das ein 10g Base T Anschluss ??
Wenn ja ist sowas für Storage / NAS und Server immer kontraproduktiv, denn bei 10G Base T hat man nie eine Garantie auf 10G. Das ist immer ein Autonegotiating je nach Kabel Qualität. Ein Knick oder schlechter Stecker und es kommen nur noch 8G an oder entsprechend weniger.
Das ist ein großes Manko von 10G Base T. Deshalb wird es in seriösen netzwerken niemals für Server und Storage verwendet. Besser sind hier immer SFP+ Ports und DAC / Twinax Kabel die immer 10G garantieren. Oder eben LWL.
Möglich das du also in diese Falle rennst. Normal wirkt sich das aber erst bei Längen jenseits der 5-10m aus. Bei kürzeren Patch Strippen eher selten.
Ja, NAS NAS und NAS IP sind halbwegs realistische Zahlen wie es sein sollte.
Da ist der böse Buhman der Winblows Server. Interessant ist das bei kleinen Paketen die Performance massiv einbricht.
Sowas weisst in erster Line auf sehr schwachbrüstige NIC Netzwerk Hardware hin. Klar, denn bei kleineren Paketen muss das Silizium erheblich mehr ackern.
Allerdings steht Mellanox nicht gerade für sowas wie Realtek usw. eher das genaue Gegenteil.
Eine Switch Infrastruktur war da ja nicht mehr zwischen wie du sagst, richtig ? Dann kann man das als Fehlerquelle schon mal sicher ausschliessen.
Da bleibt ja dann eigentlich nur die NIC bzw. die Server HW.
Was du mal machen kannst ist UDP zu nehmen statt TCP !!
Gibt es da einen gravierenden Unterschied im Durchsatz ??
Da ist der böse Buhman der Winblows Server. Interessant ist das bei kleinen Paketen die Performance massiv einbricht.
Sowas weisst in erster Line auf sehr schwachbrüstige NIC Netzwerk Hardware hin. Klar, denn bei kleineren Paketen muss das Silizium erheblich mehr ackern.
Allerdings steht Mellanox nicht gerade für sowas wie Realtek usw. eher das genaue Gegenteil.
Eine Switch Infrastruktur war da ja nicht mehr zwischen wie du sagst, richtig ? Dann kann man das als Fehlerquelle schon mal sicher ausschliessen.
Da bleibt ja dann eigentlich nur die NIC bzw. die Server HW.
Was du mal machen kannst ist UDP zu nehmen statt TCP !!
Gibt es da einen gravierenden Unterschied im Durchsatz ??
Hallo,
Hast du soetwas https://en.wikipedia.org/wiki/Twinaxial_cabling#SFP+_Direct-Attach_Coppe ...
Gruß,
Peter
Hast du soetwas https://en.wikipedia.org/wiki/Twinaxial_cabling#SFP+_Direct-Attach_Coppe ...
Mag er wohl irgendwie nicht:
Keine Ahnung was du eingetippelt hast. Mach mal ein Netio /?Gruß,
Peter
Hallo,
Und ich dachte immer das 8 Bits ein Byte sind. Wenn also seinen SFP+ geschichte macx 10 GBit/s kann, wie kommen dann z.B. diese Werte zusammen?
Das wären ja dann 15296 GBit/s TX , 15488 GBit/s RX, auch wenn 7 Bits ein Byte sein sollten kommen immer noch über 13000 GBit/s zusammen? Bin etwas irritiert.
Gruß,
Peter
Und ich dachte immer das 8 Bits ein Byte sind. Wenn also seinen SFP+ geschichte macx 10 GBit/s kann, wie kommen dann z.B. diese Werte zusammen?
Packet size 8k bytes: 1.912 GByte/s Tx, 1.932 GByte/s Rx.
Gruß,
Peter
Hallo,
Also ein Twinax DAC kabel mit SFP+ Modulen dran.
Und wie willst du dort Adern tauschen? Sind zwar nur 2 drin, aber....
Dann klappt es auch
Gruß,
Peter
Also ein Twinax DAC kabel mit SFP+ Modulen dran.
Und wie willst du dort Adern tauschen? Sind zwar nur 2 drin, aber....
Das gleicht wie vorher, nur mit -u statt -t
Und hier weiss keiner was du vorhast oder tust. Also mal lesen http://www.nwlab.net/art/netio/netio.htmlDann klappt es auch
Gruß,
Peter
Hallo,
ansonsten ist es Kosmetik (und dazu muss man noch nicht mal Elektriker sein)
Gruß,
Peter
Zitat von @Henere:
Entschuldige, aber hälst Du mich für zu doof, ein NETIO -S bzw ein NETIO -T/-U ip-adresse zu starten ?
Du schreibst hier das etwas nicht funktioniert wenn du es eintippelst, aber nicht was du eingetippelt hast.Entschuldige, aber hälst Du mich für zu doof, ein NETIO -S bzw ein NETIO -T/-U ip-adresse zu starten ?
Und da kam die Fehlermeldung wie gepostet.
Dann machst du etwas falsch, aber das weisst du ja schon.Es gibt Kabel im Hifi-Bereich, die sind sogar beschriftet mit Source und Destination. (Auch wenn man das als Elektriker nicht nachvollziehen kann)
Wenn in den Stecker/Buchsen keine Elektronik verbaut ist hilft es einen Laien die richtig anzustöpseln Hiermit wollte ich ausschließen, dass evtl einzelne Adern einen Defekt haben. Macht aber nur Sinn, wenn nicht 1:1 belegt.
Nein die sind nicht 1:1 sondern sind getauscht damit nicht ein Sender auf Sender ensteht, aber du kannst selbstverständlich die SFP+ Module (mit den angebunden DAC) gegeeinander tauschen. Wird allerdngs an deinen NetIO Werten nichts ändern.Gruß,
Peter
Hallo,
Deine Beschriftung ist aber nicht der Aufruf gewesen, daher die Irritation.
NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel
TCP connection established.
Packet size 1k bytes: 67.25 MByte/s Tx, 66.53 MByte/s Rx.
Packet size 2k bytes: 105.37 MByte/s Tx, 104.86 MByte/s Rx.
Packet size 4k bytes: 169.24 MByte/s Tx, 168.67 MByte/s Rx.
Packet size 8k bytes: 261.62 MByte/s Tx, 260.52 MByte/s Rx.
Packet size 16k bytes: 344.72 MByte/s Tx, 354.27 MByte/s Rx.
Packet size 32k bytes: 368.29 MByte/s Tx, 386.29 MByte/s Rx.
Done.Das wäre dann eine 3 MBit/s Verbindung, oder? Und mit -u gibt es den gleichen Fehler wie bei dir. Die tatsächliche NIC Hardware wird hier vollkommen umgangen.
Und das kommt bei deaktivierter NICBau also deine NiIC mal aus dann wird es etwas schneller
Gruß,
Peter
Deine Beschriftung ist aber nicht der Aufruf gewesen, daher die Irritation.
Dann kam die merkwürdige Fehlermeldung. Mit -t localhost geht es ja auch.
Das dürfte bei jedem kommen. Frage mal beim Entwickler an ob er das so vorgesehen hat. Auf ein ca. 10 Jahre altem Laptop Core2Duo T5550 4 GB RAM kommt dann meine 100 MBit/s echte Netzwerkkarte (Intel Chip) auf <code< type=plain>E:\Netio>netio_132 -t localhostNETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel
TCP connection established.
Packet size 1k bytes: 67.25 MByte/s Tx, 66.53 MByte/s Rx.
Packet size 2k bytes: 105.37 MByte/s Tx, 104.86 MByte/s Rx.
Packet size 4k bytes: 169.24 MByte/s Tx, 168.67 MByte/s Rx.
Packet size 8k bytes: 261.62 MByte/s Tx, 260.52 MByte/s Rx.
Packet size 16k bytes: 344.72 MByte/s Tx, 354.27 MByte/s Rx.
Packet size 32k bytes: 368.29 MByte/s Tx, 386.29 MByte/s Rx.
Done.Das wäre dann eine 3 MBit/s Verbindung, oder? Und mit -u gibt es den gleichen Fehler wie bei dir. Die tatsächliche NIC Hardware wird hier vollkommen umgangen.
Und das kommt bei deaktivierter NIC
E:\Netio>netio_132 -t localhost
NETIO - Network Throughput Benchmark, Version 1.32
(C) 1997-2012 Kai Uwe Rommel
TCP connection established.
Packet size 1k bytes: 67.41 MByte/s Tx, 67.11 MByte/s Rx.
Packet size 2k bytes: 105.80 MByte/s Tx, 105.73 MByte/s Rx.
Packet size 4k bytes: 169.83 MByte/s Tx, 169.37 MByte/s Rx.
Packet size 8k bytes: 261.38 MByte/s Tx, 254.34 MByte/s Rx.
Packet size 16k bytes: 351.40 MByte/s Tx, 352.44 MByte/s Rx.
Packet size 32k bytes: 453.15 MByte/s Tx, 452.55 MByte/s Rx.
Done.
Gruß,
Peter
Darum hab ich damals die Mellanox für teures Geld gekauft....
Mellanox ist ja nun auch nicht gerade innovativ oder bekannt in Sachen Ethernet. Da sind die eher Niche Player unter ferner liefen.Die verstehen was von InfiniBand aber nix wirklich von Ethernet.
Mit einer Intel oder Broadcom Chipset wärst du da sicher besser beraten gewesen...
Frage: Ist ein SFP+ Kabel 1:1 belegt ?
Das ist Blödsinn und gibt es bei Twinax nicht wie bei Cat Kabel !https://en.wikipedia.org/wiki/Twinaxial_cabling#SFP+_Direct-Attach_Coppe ...