Veeam Bottleneck "Network" bei funktionalem NIC-Teaming 2 x 1GBit
Moin Kollegen,
meine Serverumgebung wird per Veeam gesichert und verwendet dabei eine USB3.0-SS-HDD an einer Pizzaschachtel.
Alle Server sind Windows Server 2016. Die Pizzaschachtel hängt mit 2x 1GBit im Netz. Die NICs sind im Team und laut Servermanager ist das Team funktional.
Seit einiger Zeit dauert aber meine Veeamsicherung dahin über Gebühr lange und Veeam meldet immer als Bottleneck: "Network".
Die Transferrate gibt Veeam mit 120MB/s an. Das entspricht etwa 1 GBit/s, was den Verdacht aufkommen lässt, dass das Team nicht funktionieren würde.
Also habe ich mit iPerf3 Messungen zu diesem Server gemacht:
Der Cluster besteht aus 4 Hyper-Vs mit 2x 10GBit.
Es erschließt sich mir nicht, wieso Veeam hier Probleme hat.
Oder übersehe ich etwas?
Hat jemand noch eine Idee, wo ich prüfen könnte?
Vielen Dank für konstruktive Vorschläge und Euch nen schönen Tag.
Gruß
bdmvg
meine Serverumgebung wird per Veeam gesichert und verwendet dabei eine USB3.0-SS-HDD an einer Pizzaschachtel.
Alle Server sind Windows Server 2016. Die Pizzaschachtel hängt mit 2x 1GBit im Netz. Die NICs sind im Team und laut Servermanager ist das Team funktional.
Seit einiger Zeit dauert aber meine Veeamsicherung dahin über Gebühr lange und Veeam meldet immer als Bottleneck: "Network".
Die Transferrate gibt Veeam mit 120MB/s an. Das entspricht etwa 1 GBit/s, was den Verdacht aufkommen lässt, dass das Team nicht funktionieren würde.
Also habe ich mit iPerf3 Messungen zu diesem Server gemacht:
- vom HyperVisor (MS Hyper-V 2016): 1GB mit 937 Mbit/s in beide Richtungen
- von der VM, auf der Veeam läuft: (Windows Server 2016): 1GB mit 897 Mbit/s in beide Richtungen
Der Cluster besteht aus 4 Hyper-Vs mit 2x 10GBit.
Es erschließt sich mir nicht, wieso Veeam hier Probleme hat.
Oder übersehe ich etwas?
Hat jemand noch eine Idee, wo ich prüfen könnte?
Vielen Dank für konstruktive Vorschläge und Euch nen schönen Tag.
Gruß
bdmvg
Please also mark the comments that contributed to the solution of the article
Content-ID: 989339603
Url: https://administrator.de/contentid/989339603
Printed on: December 12, 2024 at 18:12 o'clock
9 Comments
Latest comment
Das entspricht etwa 1 GBit/s, was den Verdacht aufkommen lässt, dass das Team nicht funktionieren würde.
Die Frage ist WAS für ein Teaming/Aggregation verwendet wurde ? Dazu machst du ja leider keinerlei Angaben. Üblich ist in der Regel ja ein LACP LAG auf der Basis des 802.3ad Standards was auch LAN Switches durch die Bank üblicherweise nutzen.Das ist aber bekanntlich nur ein reines Hashing Verfahren was auf Mac Adresse oder IP Adresse und bei besseren Switches noch auf den TCP/UDP Port basiert. Kein per Paket Balancing. Für letzteres braucht es Fabric basierte LAN Switches mit TRILL oder SPB die du vermutlich nicht im Einsatz hast, oder ?!
Sprich der Hash eines kommunizierenden Mac- oder IP Pärchens zeigt immer fest auf einen physischen Link des LAGs/Teams. Das bedeutet dann das Endgeräte auch immer nur einen festen 1G Link bekommen, niemals aber 2G.
Es findet also lediglich eine Lastverteilung der Endgeräte auf diese physischen 1G Links statt und keine Bandbreitenerhöhung wie oft irrtümlich angenommen wird.
Bei sehr wenig Adress Entropie im Netz kommt es deshalb auch immer zu einer ungleichen Verteilung auf LACP LAGs. Im Hinblick darauf ist also dein o.a. Durchsatzwert durchaus realistisch !
Moin bdmvg,
wie ist denn die virtuelle NIC der Veeam-VM konfiguriert? Die HyperV-Hosts hängen definitiv mit 10GBit im LAN? Als "Pizzaschachtel" kenne ich noch die MacintoshLC https://de.wikipedia.org/wiki/Macintosh_LC, die meinst du aber nicht, oder...
/pp
wie ist denn die virtuelle NIC der Veeam-VM konfiguriert? Die HyperV-Hosts hängen definitiv mit 10GBit im LAN? Als "Pizzaschachtel" kenne ich noch die MacintoshLC https://de.wikipedia.org/wiki/Macintosh_LC, die meinst du aber nicht, oder...
/pp
Ich hätte mich über mehr gefreut, aber leider ist nicht.
- Jumbo Framing aktiviert ?
- Welche NIC ? Billig NICs überlassen viel des Paket Handlings der CPU entsprechend schlecht ist deren Durchsatz.
Du hast ja aber schon die lahme Platte identifiziert...
Hältst Du es für sinnvoll, die 4TB-Platten (sind nur zwei Stück) durch 4TB-SSDs zu ersetzen?
Das müsste mal ein Server Profi hier beantworten... Hängt sicher auch von der internen Anbindung des Controllers ab (PCIe Lanes usw.) und welche Art Festplatte das ist SATA, SAS, NVMe...Auf den NIC selbst ist als Wert 1514 hinterlegt als Jumbo Packet.
Das ist falsch. 1514 ist ja die Standard Ethernet MTU ! Damit ist dann kein Jumbo Framing aktiv. Vermutlich musst du das bei den einzelnen Member NICs händisch im Treiber Setup auf den gleichen MTU Wert setzen wie dein virtueller Teaming Adapter. Das müsste ein Wert um die 9100 sein. (Ist immer etwas individuell).Da schiebt er mit etwa 2.02GBit/s Daten rüber
Für einen 10G Adapter ist das mehr als mickrig auch ohne Jumbos. Hast du das mal für UDP und TCP getrennt ermittelt ?Das können ja sogar billige RealTek Adapter erheblich besser. Da stimmt in der Tat generell etwas nicht, denn iPerf3 misst ja die reine Netzwerk HW Performance ohne Overhead. Auch sehr miese 10G Karten sollten da nicht unter 5 GBit/s liegen.