pharaun
Goto Top

Intel-E810 QSFP28 to Mikrotik QSPF+ mit 40Gbit Verbindung

Hallo Zusammen,

wir haben folgende Situation:

Wir haben einen Server mit einer Intel E810-CQDA2.
Diese Karte hat 2xQSFP28 Ports.
In den Ports sind die folgenden Module verbaut: 36281 ( https://www.fs.com/products/36281.html )

Auf der Gegenseite haben wir einen Mikrotik Switch CRS326-24S+2Q+RM ( https://mikrotik.com/product/crs326_24s_2q_rm ).
Dieser hat 2xQSFP+ Ports. Verbaut sind dort folgende Module: 84681 ( https://www.fs.com/products/84681.html )

Verbunden sind die Ports mit folgendem Kabel: 130658 ( https://www.fs.com/products/130658.html )

Dir Firmware der Intel Netwerkkarte am Server hat die aktuellste Firmware (4.60).

Unser Problem ist nun, dass wir nur 10G als Verbindung bekommen, und nicht 40G.

Kann einer sagen, ob dies mit der Intel Karte möglich ist? Wir finden dort keine Möglichkeit, diese auf 40G einzustellen. Braucht es dafür DAC Kabel ?

Oder benötigen wir spezielle Treiber für die Intel Karte?

Über jede Hilfe wären wir dankbar!

Content-ID: 669581

Url: https://administrator.de/forum/intel-e810-qsfp28-to-mikrotik-qspf-mit-40gbit-verbindung-669581.html

Ausgedruckt am: 31.01.2025 um 00:01 Uhr

aqui
Lösung aqui 18.11.2024 aktualisiert um 16:14:05 Uhr
Goto Top
Braucht es dafür DAC Kabel ?
Sehr wahrscheinlich nicht.
Alle diese 40G SR4 Optiken sind Breakout fähig.
https://www.cisco.com/c/en/us/products/collateral/interfaces-modules/tra ...
D.h. wenn das entsprechende Endgerät es supportet kann man so einen 40G SR4 Port in den Breakout Mode versetzen was dann 4 separate 10G Ports erzeugt. Auf dem Switch z.B. um mit einem 40G Port reine 10G Endgeräte wie Server/Switches etc. zu versorgen.
Es ist anzunehmen das einer deiner Endgeräte die QSFP Optik in den Breakout Mode versetzt und so nur 10G aktiviert. Du musst also herausfinden wer da der Verursacher ist. Mikrotik scheidet da aus da sie keinen Breakout Mode supporten.
Das kannst du auch temporär einmal selber testen indem du im Mikrotik mal ein 40G Loop steckst über beide 40G Ports. RSTP verhindert hier Böses aber du kannst über den Port Status sehen ob die MT Switchports physisch einen 40G Port herstellen. Das verifiziert das Kabel und QSFP Optiken OK sind.
Der Mikrotik macht übrigens kein Vendor Checking so das hier auch alle anderen QSFP SR4 Optiken von der Stange rennen wie z.B. dieser hier. 😉

Vermutlich ist es die Intel Seite wo du im Adapter Setup einmal checken musst ob dort ggf. Breakout aktiviert ist die dann 4mal 10G Ports aktiviert. Intel erwähnt dazu ein "Port Configuration Tool":
https://www.intel.com/content/www/us/en/download/19436/ethernet-port-con ...
Aktelle Treiber auf der Intel Seite:
https://www.intel.de/content/www/de/de/products/sku/192558/intel-etherne ...

Alternative aber teurer ist moderne MMF BiDi QSFP Optiken zu verwenden die mit klassischem Duplex LC Patchkabeln statt MTP funktionieren und kein Breakout kennen.
Pharaun
Lösung Pharaun 18.11.2024 um 16:11:42 Uhr
Goto Top
Hi aqui,

Vielen Dank für die schnelle Antwort.

Ich hätte vielleicht noch dazusagen sollen, dass wir ohne Anpassung am Mikrotik keinen Link bekommen.
Nur wenn dort das erste Interface des QSFP Ports manuell auf 10G einstellen, anstatt auto Negotiation, bekommen wir diesen.

Deinen Tipp mit dem Breakout Modus hat dazu geführt, dass ich mich mehr mit der Intel Seite beschäftigt habe.

Nachdem das Configuration Tool wenig gebracht hat, habe ich nochmal im Bios alles geprüft.
Dort kann man unter NIC Configuration dann die "Port Option" konfigurieren mit "2x4x10G".
Kaum war das umgestellt hat man sowohl im BIOS als auch im Windows dann logischerweise 4 Interfaces pro NIC Port.

Damit funktioniert das Ganze nun so wie es soll.

Vielen Dank für die Grundlegende Info dass es gehen müsste und dem Schubs in die richtige Richtung!
aqui
aqui 18.11.2024 aktualisiert um 16:29:56 Uhr
Goto Top
Glückwunsch! 👏 👍
Obwohl "2x4x10G" erstmal falsch klingt weil das ja das Breakout auf 4mal 10G Ports aktiviert was du ja eben nicht willst. Vermutlich hast du das also DEaktiviert damit die Karte 2mal 40 Gig macht mit 2 einzelnen 40 Gig Interfaces. 🤔
Nur wenn dort das erste Interface des QSFP Ports manuell auf 10G einstellen, anstatt auto Negotiation, bekommen wir diesen.
Bei (Q)SFP Ports am Mikrotik größer 1G sollte man generell nie irgendwelche Negotiation wählen sondern den Port immer auf feste Speed und Duplex Werte stellen die zur im Port verwendeten Optik passen. (Q)SFP Optiken supporten bekanntlich keine Autonegotiation!

Eine einfache SR4 QSFP Optik mit MTP wie die oben genannte rennt hier fehlerlos in einem Mikrotik zu Cisco und Ruckus ICX Switches. Und das natürlich mit einer 40 Gig "Fat Pipe"! 😉
Vielen Dank
Immer gerne! 😊
MysticFoxDE
MysticFoxDE 20.11.2024 aktualisiert um 06:25:30 Uhr
Goto Top
Moin @aqui,

Obwohl "2x4x10G" erstmal falsch klingt weil das ja das Breakout auf 4mal 10G Ports aktiviert was du ja eben nicht willst. Vermutlich hast du das also DEaktiviert damit die Karte 2mal 40 Gig macht mit 2 einzelnen 40 Gig Interfaces. 🤔
Nur wenn dort das erste Interface des QSFP Ports manuell auf 10G einstellen, anstatt auto Negotiation, bekommen wir diesen.

so wie @Pharaun das beschreibt, hat er eher eine 4 x 10G als eine 1x 40G Verbindung aufgebaut, was nicht wirklich ein und dasselbe ist.

Gruss Alex

P.S.
By the way, eine E810 ist auch nicht gleich E810, denn die E810-CQDA2 liefert über ihre
QSFP28 per Breakout 10 x 10G, zumindest über den ersten Port. 🙃
aqui
aqui 20.11.2024 um 10:21:20 Uhr
Goto Top
hat er eher eine 4 x 10G als eine 1x 40G Verbindung aufgebaut, was nicht wirklich ein und dasselbe ist.
Das ist üblicher Standard bei SR4 Optiken die das Signal auf 4mal 10Gig verteilen. Es ist aber keinesfalls sowas wie ein LAG, da nur die L1 Signalisierung (VCSEL) verteilt ist. Der Datenfluss stellt sich aus Sicht des Switches dar wie eine reine 40G "fat Pipe". Es ist also ein natives 40G Interface sofern kein Breakout verwendet wird.
MysticFoxDE
MysticFoxDE 20.11.2024 aktualisiert um 10:54:42 Uhr
Goto Top
Moin @aqui,

Das ist üblicher Standard bei SR4 Optiken die das Signal auf 4mal 10Gig verteilen. Es ist aber keinesfalls sowas wie ein LAG, da nur die L1 Signalisierung (VCSEL) verteilt ist. Der Datenfluss stellt sich aus Sicht des Switches dar wie eine reine 40G "fat Pipe". Es ist also ein natives 40G Interface sofern kein Breakout verwendet wird.

ich fürchte, du übersiehst da eine Kleinigkeit und zwar die folgende.

Dort kann man unter NIC Configuration dann die "Port Option" konfigurieren mit "2x4x10G".
Kaum war das umgestellt hat man sowohl im BIOS als auch im Windows dann logischerweise 4 Interfaces pro NIC Port.


Das Problem des TO's liegt leider ganz woanders und das was jetzt kommt, wird ihm glaube ich auch nicht wirklich gefallen ... er hat sich nämlich entweder die falschen NIC's oder die falschen Switche gekauft, je nachdem wie man es sieht. 😬

Und zwar können die Intel E810 NIC's ...

https://ark.intel.com/content/www/us/en/ark/products/series/184846/intel ...

... entweder 1GbE oder 10GbE oder 25GbE oder 50GbE oder gar 100GbE abliefern, aber eben kein natives 40GbE, denn das können nur die folgenden Intel NIC's ...

https://ark.intel.com/content/www/us/en/ark/products/series/96044/intel- ...

... . 😉

Sprich, damit der TO nativ 40GbE nutzen kann, muss er entweder die NIC's tauschen oder einen anderen Switch kaufen, der 50G QSFP+ Ports bereitstellt, wie die Cisco Nexus 9300-Serie oder z.B. Broadcom N8560-32C.

Meine Kristallkugel sagt mir jedoch, dass es eher andere NIC's als 50G Switche werden. 🙃

Gruss Alex
aqui
aqui 20.11.2024 aktualisiert um 11:24:33 Uhr
Goto Top
aber eben kein natives 40GbE
Dann de facto die falsche NIC! face-wink
Pharaun
Pharaun 20.11.2024 aktualisiert um 14:30:12 Uhr
Goto Top
Hallo aqui,
Hallo Alex,

ja de facto wohl die falsche NIC (Da wurde so genau auch nicht drüber nachgedacht seitens der Person, die den Server konzipiert hat)e. Aber jetzt tatsächlich mal doof gefragt, wo sollte da das Problem sein?
Wenn ich über die 4 Interfaces ein SET Team mache, was aktue.l nun auch so ist, sind doch trotzdem de facto 40Gibt/s nutzbar ?

Oder übersehe ich irgendwas?

Auf der anderen Seite wüsste ich gar nicht, ob es mit einer 40Gbit Karte zusammen mit dem Mikrotik gehen würde, denn dieser zeigt ja so oder so 4 Interfaces an. Ich wüsste nicht wie man diesen so einstellen könnte, dass er als "ein" Interface aggiert?

Hier noch ein paar Screenshots dazu:
bios1
bios2
tik1
tik2
tik3
tik4

PS: @MysticFoxDE , Ich verfolge sehr gespannt deinen Beitrag zu NICs unter Server 2025 ;)

LG
aqui
aqui 20.11.2024 aktualisiert um 13:46:05 Uhr
Goto Top
Wenn ich über die 4 Interfaces ein SET Team mache, was aktue.l nun auch so ist
Nein, das ist dann eine ganz andere Welt! Wie @MysticFoxDE schon richtig sagt wird dann das Breakout aktiviert und du hast dann 4 einzelne 10G Interfaces und darüber arbeitet dann ein LACP LAG.
Damit hast du dann keine 40Gig "Fat Pipe" mehr also einen einzigen nativen 40Gig Link, sondern machst eine Hash basierte Link Aggregation (LAG) über 4 mal 10Gig Einzellinks.
Performancetechnisch ist das deutlich schlechter, da Daten immer nur sessionbasierend mit 10Gig übertragen werden. Es findest nur eine mehr oder minder bessere Auslastung/Verteilung über diese 10G Memberlinks statt. Dies hängt im Hohen Maße dann von deiner Adressentropie im Netz ab. All die Nachteile eines LAG im Vergleich zu einem Einzellink mit der Bandbreite.
Das sind also de facto keine echten 40G sondern nur viele verteilte Sessions auf 10Gig. Sicher NICHT dass was du mit der Anschaffung der 40G erreichen wolltest?! face-sad
Pharaun
Pharaun 20.11.2024 um 14:16:39 Uhr
Goto Top
Die 40G sind die Anbindung eines HyperV-Server an den Core Switch.

Hier muss meines erachtens ja nicht ein Einzellunk mit hoher Bandbreite vorhanden sein, da sowieso viele Session von den VMs aufgemacht werden. Zumindest würde ich das so sehen.

Was ich mir allerdings Frage, ob man als Hash Algorythmus im SET Team dann eher auf Hyper-V Port oder Dynamic stellen sollte.

Was wäre hier die Empfehlung von eurer Seite?

Auf dem Server werden gemischte Anwendungsfälle sein, unter anderem TS Umgebung, SQL Server, und weitere Branchenanwendungen in jeweils eigenen VMs. insgesamt vermutlich so ca 10-15 VMs.

Vielen Dank für eure Kompetente Hilfe schon mal!

LG
MysticFoxDE
MysticFoxDE 20.11.2024 um 14:52:34 Uhr
Goto Top
Moin @Pharaun,

ja de facto wohl die falsche NIC (Da wurde so genau auch nicht drüber nachgedacht seitens der Person, die den Server konzipiert hat)e. Aber jetzt tatsächlich mal doof gefragt, wo sollte da das Problem sein?
Wenn ich über die 4 Interfaces ein SET Team mache, was aktue.l nun auch so ist, sind doch trotzdem de facto 40Gibt/s nutzbar ?

nein, das ist leider nicht mal ansatzweise dasselbe, wie wen du einen nativen 40G Uplink hast.

Oder übersehe ich irgendwas?

Ja, leider eine ganze Menge, für einen grossteil davon kannst du jedoch nichts, da dieses Thema vor allem von Microsoft sowohl schlampig umgesetzt als auch dokumentiert ist. 😭

Ich versuche mal ein paar wesentliche Dinge auszuzählen.

Wenn man bei einem Hyper-V oder auch VMware, den VM-Datenverkehr mit NIC's => 10G abfertigen und dabei auch nur ansatzweise deren mögliche Bandbreite erreichen möchte, dann führt KEIN Weg an VMQ und SR-IOV, oder RDMA vorbei.

Bei einem SET Team, bei dem mehrere >= 10G NIC's verwendet werden, sollte man laut Microsoft selbst den Loadbalancer auf "HyperVPort" umstellen, wodurch den VM's dann aber nur noch max. die Geschwindigkeit einer einzelnen NIC zur Verfügung steht. 🙃

Und damit du beim SET überhaupt auch nur ansatzweise selbst 10G sauber hinbekommst, musst du sowohl die NIC, als auch den vSwitch als auch die vNIC, noch ordentlich nachoptimieren. 😔

Auf der anderen Seite wüsste ich gar nicht, ob es mit einer 40Gbit Karte zusammen mit dem Mikrotik gehen würde, denn dieser zeigt ja so oder so 4 Interfaces an. Ich wüsste nicht wie man diesen so einstellen könnte, dass er als "ein" Interface aggiert?

Das geht und zwar nur mit einem Interface, sprich, so wie du es eigentlich ursprünglich haben wolltest. 😉

PS: @MysticFoxDE , Ich verfolge sehr gespannt deinen Beitrag zu NICs unter Server 2025 ;)

Ähm, ja, das ist fürchte ich bisher nur das "Warm-Up" vom "Warm-Up", den bisher habe ich Hyper-V noch gar nicht angesprochen und da wird es leider noch so um einiges gruseliger.

Aber, um das mal ordentlich zu belegen, muss ich zuerst eine Saubere "Baseline" mit ohne den ganzen Feature-Krampf mal machen und da NTTTCP ja nicht wirklich das macht was man ihm sagt, muss ich die ganzen bisherigen Messungen nun mit iPerf machen, was jedoch auch nicht ganz so einfach ist, da iPerf wiederum nicht 1:1 dasselbe wie, theoretisch zumindest, NTTCP machen kann. 😔😭

Gruss Alex
MysticFoxDE
MysticFoxDE 20.11.2024 um 14:55:53 Uhr
Goto Top
Moin @aqui,

Nein, das ist dann eine ganz andere Welt! Wie @MysticFoxDE schon richtig sagt wird dann das Breakout aktiviert und du hast dann 4 einzelne 10G Interfaces und darüber arbeitet dann ein LACP LAG.
Damit hast du dann keine 40Gig "Fat Pipe" mehr also einen einzigen nativen 40Gig Link, sondern machst eine Hash basierte Link Aggregation (LAG) über 4 mal 10Gig Einzellinks.

😬 ... also das davor passt nicht ganz, da SET kein LACP supportet, aber, selbst ohne LACP, würde ich mich der folgenden Aussage ...

Performancetechnisch ist das deutlich schlechter, da Daten immer nur sessionbasierend mit 10Gig übertragen werden. Es findest nur eine mehr oder minder bessere Auslastung/Verteilung über diese 10G Memberlinks statt. Dies hängt im Hohen Maße dann von deiner Adressentropie im Netz ab. All die Nachteile eines LAG im Vergleich zu einem Einzellink mit der Bandbreite.
Das sind also de facto keine echten 40G sondern nur viele verteilte Sessions auf 10Gig. Sicher NICHT dass was du mit der Anschaffung der 40G erreichen wolltest?! face-sad

... trotzdem komplett anschliessen.

Gruss Alex
Pharaun
Pharaun 20.11.2024 aktualisiert um 15:00:19 Uhr
Goto Top
Das geht und zwar nur mit einem Interface, sprich, so wie du es eigentlich ursprünglich haben wolltest. 😉

Das habe ich schon verstanden, aber im Mikrotik sind es ja auch 4 Interfaces. Kann man das im TiK anpassen oder wie soll das auf der TiK Seite dann korrekt sein?

Das wäre für mich die Frage der Fragen in diesem Bezug...
MysticFoxDE
MysticFoxDE 20.11.2024 um 15:08:22 Uhr
Goto Top
Moin @Pharaun,

Hier muss meines erachtens ja nicht ein Einzellunk mit hoher Bandbreite vorhanden sein, da sowieso viele Session von den VMs aufgemacht werden.

Einzellunk ... auch gut. 🙃

Zumindest würde ich das so sehen.

Ist aber nicht ganz richtig, denn eine 4 GHz Kern kann im Vergleich zu einem 1GHz Kern oder von mir aus auch vier davon, eine einzelne Aufgabe normalerweise um Faktor 4 viel schneller rechnen und bei den NIC's sieht es bei vor allem sequentiellen Workloads, meist sehr ähnlich aus. 😉

Was ich mir allerdings Frage, ob man als Hash Algorythmus im SET Team dann eher auf Hyper-V Port oder Dynamic stellen sollte.

Was wäre hier die Empfehlung von eurer Seite?

Wie ich schon in dem Post davor geschrieben habe, bei >= 10G, wird seitens Microsoft eigentlich nur der "HyperVPort" Algorithmus empfohlen.

Auf dem Server werden gemischte Anwendungsfälle sein, unter anderem TS Umgebung, SQL Server, und weitere Branchenanwendungen in jeweils eigenen VMs. insgesamt vermutlich so ca 10-15 VMs.

Wie schon @aqui zuvor geschrieben hat, 1x40G fühlt sich in den meisten Fällen ganz anders an, wie 4x10G, das letztere ist eher wie mit 4 oder mehr Gummis übereinander. 🙃

Gruss Alex
MysticFoxDE
MysticFoxDE 20.11.2024 um 15:11:21 Uhr
Goto Top
Moin @Pharaun,

Das habe ich schon verstanden, aber im Mikrotik sind es ja auch 4 Interfaces. Kann man das im TiK anpassen oder wie soll das auf der TiK Seite dann korrekt sein?

Das wäre für mich die Frage der Fragen in diesem Bezug...

ich muss gestehen, dass ich mich zumindest praktisch, nicht wirklich mit Mikrotik auskenne und irgend einen der Billigheimer, kann @aqui soweit ich mich erinnern kann, auch nicht leiden, aber ja, wir bekommen das schon irgendwie noch geklärt. 😉

Gruss Alex
aqui
aqui 20.11.2024 aktualisiert um 15:33:50 Uhr
Goto Top
Die LAG Geschichte im Mikrotik ist im Tutorial erklärt:
Mikrotik Link Aggregation
Ist mehr oder minder typisch wie alle Switch Hersteller das machen.
Pharaun
Pharaun 20.11.2024 um 15:56:21 Uhr
Goto Top
Da hast du mich falsch verstanden aqui, wir haben ja im verlauf des Threads hier schon festgestellt, dass man im bestenfall kein LAG möchte.

Wenn wir nun am Server auf eine 710er NIC wechseln mit nativer 40G unterstützung (Einzellink), dann wäre für mich die Frage wie das am TiK funktioniert?

Denn dieser hat ja wie im Screenshot zu sehen 4 Interfaces per default für den 40G Port selbst.

Wie bekommt man es dann hin, dass dort auch ein Interface mit 40G anstatt 4 mit 10G zu sehen/aktiv sind?

LG
aqui
aqui 20.11.2024 aktualisiert um 16:11:21 Uhr
Goto Top
dann wäre für mich die Frage wie das am TiK funktioniert?
Ahhsoo, sorry missverstanden. 🙈
Da das ein natives 40G Interface ist musst du da nix machen. In den physischen Port Setups ggf. fest 40Gig Fulldup einstellen, QSFP rein, fertisch.
Da es ein natives 40Gig Interface ist und kein Multispeed kannst du dir das Speed und Duplex Setting auch sparen. Die Optik rennt im Default dann als "Fat Pipe" mit 40G.
Mit der einfachen Optik von oben und einem Cisco 9000er bzw. Ruckus ICX als Gegenüber kommt hier sofort ein nativer 40Gig Link zustande mit dem SR4. Übrigens auch mit einem BiDi QSFP und LC Kabel.
Pharaun
Pharaun 20.11.2024 um 16:25:17 Uhr
Goto Top
Ah ok.
Das heißt, obwohl im Tik dann 4 Interfaces für jeden QSFP Port angezeigt werden, würden diese dann direkt als nativer 40G Link aggieren.

Bisschen Strange, aber gut. Wieder was gelernt face-smile
aqui
aqui 20.11.2024 aktualisiert um 16:49:27 Uhr
Goto Top
Das heißt, obwohl im Tik dann 4 Interfaces für jeden QSFP Port angezeigt werden
Nein, das ist dann falsch. Wenn 4 Interfaces angezeigt werden hat da ja jemand schon Breakout konfiguriert mit 4mal 10Gig. Dann splittet sich ein QSFP Port in 4mal 10G Interfaces. Genau das was du ja nicht willst.
Es darf nur ein Interface pro QSFP Slot angezeigt werden. So wie es ist wenn der Switch ohne Default Konfig gebootet wird.
Pharaun
Pharaun 20.11.2024 um 17:09:29 Uhr
Goto Top
So wie es ist wenn der Switch ohne Default Konfig gebootet wird.

Das wäre der Punkt den ich nicht sicher sagen könnte. Aber manuell hat da niemand etwas konfiguriert von uns.
Ich hab das jetzt auch gerade nochmal nachgelesen.

Es sind bei Mikrotik wohl immer die 4 Interfaces zu sehen:
In RouterOS, QSFP+ and QSFP28 interfaces are designed to handle high-speed data transmission by utilizing multiple channels. Each QSFP+ or QSFP28 interface is divided into four sub-interfaces, each corresponding to a transmission channel necessary for proper operation.

Und dann kommt wohl drauf, was man hat und die Konfiguration entsprechend anpasst. Für 40G Singe Link wird dann allerdings nur das erste Interface konfiguriert und die anderen 3 bleiben unbeachtet.

Details siehe hier:
https://help.mikrotik.com/docs/spaces/ROS/pages/220233794/MikroTik+wired ...

Somit sollte das Thema nun erst mal klar sein, hoffentlich auch für alle anderen die diesen Beitrag finden face-smile
aqui
aqui 20.11.2024 um 18:42:59 Uhr
Goto Top
Welches Image verwendest du? Gilt das für den aktuellen Stable 7.16.1 ?
MysticFoxDE
MysticFoxDE 20.11.2024 um 22:25:35 Uhr
Goto Top
Moin @Pharaun,

Es sind bei Mikrotik wohl immer die 4 Interfaces zu sehen:
In RouterOS, QSFP+ and QSFP28 interfaces are designed to handle high-speed data transmission by utilizing multiple channels. Each QSFP+ or QSFP28 interface is divided into four sub-interfaces, each corresponding to a transmission channel necessary for proper operation.

Und dann kommt wohl drauf, was man hat und die Konfiguration entsprechend anpasst. Für 40G Singe Link wird dann allerdings nur das erste Interface konfiguriert und die anderen 3 bleiben unbeachtet.

Details siehe hier:
https://help.mikrotik.com/docs/spaces/ROS/pages/220233794/MikroTik+wired ...

das trifft aber nicht wirklich generell für QSFP28 zu, den dieses kann grundsätzlich per "multilane serial interface" nicht nur in 4 x 25G Mode betrieben werden, sondern auch im 10 x 10G Mode und theoretisch ist sogar N x XG möglich.

Ich wollte dir übrigens vorhin noch als Alternative zu dem NIC-Tausch noch den "CRS520-4XS-16XQ-RM" empfehlen ...

https://mikrotik.com/product/crs520_4xs_16xq_rm#fndtn-testresults

... welcher mit 16 100G Ports von den Kosten her sehr überschaubar ist. Jedoch habe ich beim prüfen seiner Specs zum Glück noch rechtzeitig gesehen, dass die 16 x 100G Ports dieses Switches, neben nativem 100G auch 2x50G oder 1x40G oder 4x25G oder 4x10G oder 4x1G, aber leider KEIN 1x50G und auch kein 10x10G unterstützen. 🙃

Oh oh, ich fürchte, dieser Beitrag ist wahrscheinlich nur der Beginn einer ganz neuen Problemkette. 😬

Gruss Alex
Pharaun
Pharaun 22.11.2024 um 15:26:33 Uhr
Goto Top
Vielen Dank für die Info.

Ich habe spannenderweise erst heute die Benachrichtigung für deinen neuen kommentar bekommen, aber egal...

Wir haben uns am Mittwoch abend dazu intern noch besprochen und die Netzwerkkarte wird nun auf eine 710er gewechselt aus eine von deinem Link oben.

Damit wäre das dann durch hoffentlich face-smile

Warum da 2x50G geht, und 1x50G ist mir persönlich ja schon wieder ein Rätstel, aber dass will und muss ich gerade nicht verstehen ;)