beidermachtvongreyscull
Goto Top

Veeam Bottleneck "Network" bei funktionalem NIC-Teaming 2 x 1GBit

Moin Kollegen,

meine Serverumgebung wird per Veeam gesichert und verwendet dabei eine USB3.0-SS-HDD an einer Pizzaschachtel.
Alle Server sind Windows Server 2016. Die Pizzaschachtel hängt mit 2x 1GBit im Netz. Die NICs sind im Team und laut Servermanager ist das Team funktional.

Seit einiger Zeit dauert aber meine Veeamsicherung dahin über Gebühr lange und Veeam meldet immer als Bottleneck: "Network".
Die Transferrate gibt Veeam mit 120MB/s an. Das entspricht etwa 1 GBit/s, was den Verdacht aufkommen lässt, dass das Team nicht funktionieren würde.

Also habe ich mit iPerf3 Messungen zu diesem Server gemacht:
  • vom HyperVisor (MS Hyper-V 2016): 1GB mit 937 Mbit/s in beide Richtungen
  • von der VM, auf der Veeam läuft: (Windows Server 2016): 1GB mit 897 Mbit/s in beide Richtungen

Der Cluster besteht aus 4 Hyper-Vs mit 2x 10GBit.

Es erschließt sich mir nicht, wieso Veeam hier Probleme hat.

Oder übersehe ich etwas?
Hat jemand noch eine Idee, wo ich prüfen könnte?

Vielen Dank für konstruktive Vorschläge und Euch nen schönen Tag.

Gruß
bdmvg

Content-ID: 989339603

Url: https://administrator.de/contentid/989339603

Ausgedruckt am: 03.12.2024 um 17:12 Uhr

aqui
Lösung aqui 13.07.2021 aktualisiert um 10:59:55 Uhr
Goto Top
Das entspricht etwa 1 GBit/s, was den Verdacht aufkommen lässt, dass das Team nicht funktionieren würde.
Die Frage ist WAS für ein Teaming/Aggregation verwendet wurde ? Dazu machst du ja leider keinerlei Angaben. Üblich ist in der Regel ja ein LACP LAG auf der Basis des 802.3ad Standards was auch LAN Switches durch die Bank üblicherweise nutzen.
Das ist aber bekanntlich nur ein reines Hashing Verfahren was auf Mac Adresse oder IP Adresse und bei besseren Switches noch auf den TCP/UDP Port basiert. Kein per Paket Balancing. Für letzteres braucht es Fabric basierte LAN Switches mit TRILL oder SPB die du vermutlich nicht im Einsatz hast, oder ?!
Sprich der Hash eines kommunizierenden Mac- oder IP Pärchens zeigt immer fest auf einen physischen Link des LAGs/Teams. Das bedeutet dann das Endgeräte auch immer nur einen festen 1G Link bekommen, niemals aber 2G.
Es findet also lediglich eine Lastverteilung der Endgeräte auf diese physischen 1G Links statt und keine Bandbreitenerhöhung wie oft irrtümlich angenommen wird.
Bei sehr wenig Adress Entropie im Netz kommt es deshalb auch immer zu einer ungleichen Verteilung auf LACP LAGs. Im Hinblick darauf ist also dein o.a. Durchsatzwert durchaus realistisch !
PeterPanter
Lösung PeterPanter 13.07.2021 um 10:34:06 Uhr
Goto Top
Moin bdmvg,

wie ist denn die virtuelle NIC der Veeam-VM konfiguriert? Die HyperV-Hosts hängen definitiv mit 10GBit im LAN? Als "Pizzaschachtel" kenne ich noch die MacintoshLC https://de.wikipedia.org/wiki/Macintosh_LC, die meinst du aber nicht, oder... face-smile

/pp
beidermachtvongreyscull
beidermachtvongreyscull 13.07.2021 um 10:45:47 Uhr
Goto Top
@aqui:

Moin,

sorry. Es ist LACP. Hab Dank für Deine Erklärung. Das hilft auf jeden Fall weiter.
Dann verpasse ich der Pizzaschachtel, ein PRIMERGY RX200 S6, ne 10GBit-NIC.

Ich wollte nur sichergehen.

Vielen Dank!
beidermachtvongreyscull
beidermachtvongreyscull 13.07.2021 um 10:54:01 Uhr
Goto Top
@PeterPanter:

Aqui hat mir schon bestätigt, dass das Bottleneck am pyhsischen Server auftritt. Ich hatte nicht mehr auf dem Schirm, dass ein LACP-Trunk die Bandbreite nicht vergrößert sondern eher die Ausfallsicherheit herstellt.

Der Server ist ein Fujitsu Primergy RX200 S6. Ne richtig alte Schüssel. Ich nutze den noch, weil er einfach gut funktioniert.

Merci!
aqui
Lösung aqui 13.07.2021 um 10:58:39 Uhr
Goto Top
Dann verpasse ich der Pizzaschachtel, ein PRIMERGY RX200 S6, ne 10GBit-NIC
👍 "Fat Pipe" klappt immer ! 😉
beidermachtvongreyscull
beidermachtvongreyscull 23.07.2021 um 09:53:11 Uhr
Goto Top
Zitat von @aqui:

Dann verpasse ich der Pizzaschachtel, ein PRIMERGY RX200 S6, ne 10GBit-NIC
👍 "Fat Pipe" klappt immer ! 😉

Moin Kollege @aqui:

ich wollte mal Rückmeldung geben. Das Bottleneck ist jetzt wieder das Target. Die Umrüstung auf 10GBit bringt etwa 1h Ersparnis. Ich hätte mich über mehr gefreut, aber leider ist nicht.

Es liegt an der 4TB USB-Platte.
Mit winsat sowohl sequentielles Lesen und Schreiben gemessen ergibt zw. 140MB/s - 160MB/s.

Hältst Du es für sinnvoll, die 4TB-Platten (sind nur zwei Stück) durch 4TB-SSDs zu ersetzen?

Hab Dank für Deine Antwort.

Gruß
bdmvg
aqui
aqui 23.07.2021 um 10:26:45 Uhr
Goto Top
Ich hätte mich über mehr gefreut, aber leider ist nicht.
  • Jumbo Framing aktiviert ?
  • Welche NIC ? Billig NICs überlassen viel des Paket Handlings der CPU entsprechend schlecht ist deren Durchsatz.
Beides wichtige Punkte für die Performance zumindestens mal rein auf Netzwerk Ebene betrachtet.
Du hast ja aber schon die lahme Platte identifiziert...
Hältst Du es für sinnvoll, die 4TB-Platten (sind nur zwei Stück) durch 4TB-SSDs zu ersetzen?
Das müsste mal ein Server Profi hier beantworten... Hängt sicher auch von der internen Anbindung des Controllers ab (PCIe Lanes usw.) und welche Art Festplatte das ist SATA, SAS, NVMe...
beidermachtvongreyscull
beidermachtvongreyscull 23.07.2021 um 11:10:18 Uhr
Goto Top
Zitat von @aqui:
  • Jumbo Framing aktiviert ?
Ich kann es nur auf der Serverseite checken. Im Teaming-Adapter ist es eingeschaltet. Auf den NIC selbst ist als Wert 1514 hinterlegt als Jumbo Packet.
* Welche NIC ? Billig NICs überlassen viel des Paket Handlings der CPU entsprechend schlecht ist deren Durchsatz.
Ich habe eine Mellanox ConnectX-2 eingebaut.
Beides wichtige Punkte für die Performance zumindestens mal rein auf Netzwerk Ebene betrachtet.
Ich hatte mit iperf3 nochmal gemessen. Da schiebt er mit etwa 2.02GBit/s Daten rüber (also etwas mehr als 1,5fach).
Du hast ja aber schon die lahme Platte identifiziert...
Hältst Du es für sinnvoll, die 4TB-Platten (sind nur zwei Stück) durch 4TB-SSDs zu ersetzen?
Das müsste mal ein Server Profi hier beantworten... Hängt sicher auch von der internen Anbindung des Controllers ab (PCIe Lanes usw.) und welche Art Festplatte das ist SATA, SAS, NVMe...
Die Platte selbst steckt in einem USB.3.0SS-Dock mit einem SATA-Anschluss.

Danke und Gruß
bdmvg
aqui
aqui 23.07.2021 aktualisiert um 11:43:53 Uhr
Goto Top
Auf den NIC selbst ist als Wert 1514 hinterlegt als Jumbo Packet.
Das ist falsch. 1514 ist ja die Standard Ethernet MTU ! Damit ist dann kein Jumbo Framing aktiv. Vermutlich musst du das bei den einzelnen Member NICs händisch im Treiber Setup auf den gleichen MTU Wert setzen wie dein virtueller Teaming Adapter. Das müsste ein Wert um die 9100 sein. (Ist immer etwas individuell).
Da schiebt er mit etwa 2.02GBit/s Daten rüber
Für einen 10G Adapter ist das mehr als mickrig auch ohne Jumbos. Hast du das mal für UDP und TCP getrennt ermittelt ?
Das können ja sogar billige RealTek Adapter erheblich besser. Da stimmt in der Tat generell etwas nicht, denn iPerf3 misst ja die reine Netzwerk HW Performance ohne Overhead. Auch sehr miese 10G Karten sollten da nicht unter 5 GBit/s liegen.