charlyxl
Goto Top

Netzwerkreihenfolge ändern

Hallo zusammen,

ich habe einen Hyper-V Cluster (Windows Server 2016) mit mehreren Netzwerkkarten aufgebaut, wo bei nur eine Karte für die Außenwelt bestimmt ist.
Soweit so gut. Leider habe ich folgenden Problem. Wenn ich eine VM von einem Host zum anderen verschiebe, braucht es fast eine Minute bis die VM wieder eine IP bekommen hat.
Ich vermute das es mit der Reihenfolge der Netzwerke zu tun hat. Für ältere Windows Server Betriebssysteme habe ich sehr viele Anleitung gefunden. Aber nicht für Server 2016. Dort wird mir das entsprechende Menü nicht angezeigt.
Kann mir jemand helfen und erklären wie ich das sonst ändern kann? Oder liegt das Problem ganz wo anderes.

Vielen Dank für eure Hilfe.

VG Charly

Content-Key: 366411

Url: https://administrator.de/contentid/366411

Printed on: April 26, 2024 at 01:04 o'clock

Member: Kraemer
Kraemer Feb 28, 2018 updated at 07:27:54 (UTC)
Goto Top
Member: passau
passau Feb 28, 2018 at 07:55:00 (UTC)
Goto Top
schau dir mal die Routen am System an und passe diese evtl an. (route print , route add, ...)
https://www.howtogeek.com/howto/windows/adding-a-tcpip-route-to-the-wind ..)
Member: rzlbrnft
rzlbrnft Feb 28, 2018 updated at 08:28:29 (UTC)
Goto Top
Zitat von @CharlyXL:
Oder liegt das Problem ganz wo anderes.

Das würd ich mal vermuten, bei einer HyperV Live-Migration verlierst du normalerweise einen, allerhöchstens zwei Pings.
Wenn deine Maschine eine komplette Minute nicht erreichbar ist, dann hast du irgendeinen grundlegenden Fehler in deiner Netzwerkkonfiguration.

Du schreibst aber weder was du für Storage benutzt, wie der angebunden ist, wie die Netzwerke aussehen oder sonst irgendwas über deine Struktur, also könnte man auch in die Glaskugel schaun und raten.

In diesem Tutorial stehen ein paar Sachen, sieht bei 2016 wahrscheinlich anders aus, aber grundsätzlich kann man es verwenden.
https://www.hyper-v-server.de/management/netzwerkkonfiguration-im-hyper- ...
Member: CharlyXL
CharlyXL Mar 01, 2018 at 07:29:59 (UTC)
Goto Top
Danke für die Hilfestellungen.
An die genannte Anleitung habe ich mich genau gehalten. Bis auf den letzten Punkt. Die Anleitung ist nicht direkt für Server 2016 und da haben sich die Sachen mit der Netzwerkkartenreihenfolge geändert.
Ich werde mir das mal mit den Routing und Metric anschauen. Es sei denn jemand weiß, wo Microsoft das Menü versteckt hat.
VG Charly
Member: rzlbrnft
rzlbrnft Mar 01, 2018 updated at 14:20:44 (UTC)
Goto Top
Zitat von @CharlyXL:
Ich werde mir das mal mit den Routing und Metric anschauen. Es sei denn jemand weiß, wo Microsoft das Menü versteckt hat.
VG Charly

Mit Routing hat das gar nix zu tun, du wirst ja wohl die Netzwerkadapter die miteinander kommunizieren sollen im selben Subnet haben. Insofern wird das Routing gar nicht angefasst. Die Antwort oben macht keinen Sinn.

Welchen letzten Punkt meinst du? IPv6? Das solltest du anlassen auch wenn nicht konfiguriert, lieber per GPO deaktivieren aber nicht im Netzwerkadapter, manche Dienste fahren ohne das Häkchen bei IPv6 gar nicht richtig hoch oder brauchen ewig.

Wir sind hier übrigens mittlerweile dazu übergegangen statt für die verschiedenen Komponenten je ein eigenes Netzwerk zu machen nur noch das SAN und den Hostadapter trennen und die restlichen Adapter zu einem möglichst großen NIC Team zusammenzufassen. Mir persönlich erscheint es sinnvoller das die VMs soviel Adapter wie möglich bekommen, als je einen nur für die paar Bytes Heartbeat oder für die im Livebetrieb eher selten genutzte Livemigration zu verballern.
Member: CharlyXL
CharlyXL Mar 06, 2018 at 09:50:45 (UTC)
Goto Top
Welchen letzten Punkt meinst du? IPv6? Das solltest du anlassen auch wenn nicht konfiguriert, lieber per GPO deaktivieren aber nicht im Netzwerkadapter, manche Dienste fahren ohne das Häkchen bei IPv6 gar nicht richtig hoch oder brauchen ewig.
Ich meine den Punkt mit der Netzwerkkartenreihenfolge. Da dieses Menü im Server 2016 nicht da ist. Ich habe ich Netz schon Aussagen gefunden, die meinen sobald der Server in der Domäne ist, ist das Menü nicht mehr da. Konnte ich aber noch nicht prüfen.

Wir sind hier übrigens mittlerweile dazu übergegangen statt für die verschiedenen Komponenten je ein eigenes Netzwerk zu machen nur noch das SAN und den Hostadapter trennen und die restlichen Adapter zu einem möglichst großen NIC Team zusammenzufassen. Mir persönlich erscheint es sinnvoller das die VMs soviel Adapter wie möglich bekommen, als je einen nur für die paar Bytes Heartbeat oder für die im Livebetrieb eher selten genutzte Livemigration zu verballern.

Den Tipp habe ich von dir habe ich nach mehrmaligen überdenken auch umgesetzt. Es gibt jetzt ein Netz für Heartbeat, Management, ISCSI und eins für den virtuellen Switch.

Es läuft auch alles sehr gut, aber es ist immer noch das Problem, dass die VM nach einer Livemigration das Netzwerk verlieren und erst später wieder finden.
Ich habe auch den Cluster schon neu aufgesetzt um Schusselfehler auszuschließen. Jetzt habe ich einen Netzwerkausfall von 1 Sekunde wenn ich eine VM von Knoten A nach B schieben und ca. 45 Sekunden beim Verschieben von B nach A.

Den einzigen Unterschied den ich jetzt noch feststellen kann ist die Reihenfolge der Netzwerkkarten.
Knoten A
Name - Gerätename
Heartbeart -Fujitsu DynamicLoM Emulex OCI14000-LOM #2
ISCSI - |Fujitsu DynamicLoM Emulex OCI14000-LOM #4
VM - |Fujitsu DynamicLoM Emulex OCI14000-LOM
Management - |Fujitsu DynamicLoM Emulex OCI14000-LOM #3

Knoten B
Name - Gerätename
Heartbeart -Fujitsu DynamicLoM Emulex OCI14000-LOM #4
ISCSI - |Fujitsu DynamicLoM Emulex OCI14000-LOM
VM - |Fujitsu DynamicLoM Emulex OCI14000-LOM #3
Management - |Fujitsu DynamicLoM Emulex OCI14000-LOM #2

Vielen Dank für eure Hilfe.

VG Charly
Member: aqui
aqui Mar 06, 2018 at 10:12:31 (UTC)
Goto Top
Den einzigen Unterschied den ich jetzt noch feststellen kann ist die Reihenfolge der Netzwerkkarten.
Was man ja mit den Cost Settings wie oben beschrieben beeinflussen kann.
Member: rzlbrnft
rzlbrnft Mar 08, 2018 updated at 16:11:54 (UTC)
Goto Top
Ggf. liegts an den iScsi Settings?

Was nutzt du hier, MPIO mit Standard Windows Anbieter oder einen eigenen Treiber wie bei manchen Appliances?
Wenn einer der Host eine fehlerhafte iScsi Anbindung hat können solche Fehler evtl. auch auftreten.

Was steht in der Ereignisanzeige des Hosts während die VM das Netz verliert?

Kann es eventuell an den Switches liegen, z.B. an einer Neuaushandlung der Netzwerkkonnektivität durch ein aktiviertes Spanning Tree Protokoll? Wenn aktiv, dann mal auf den HyperV Ports deaktivieren oder auf Fast Link setzen. NIC Teaming Modi durchprobieren, für das VM Team benutzen wir Switchunabhängig mit Modus Hyper-V Port.

Du solltest auch für dein Team eine andere MAC Adresse benutzen wie für die einzelnen Adapter, damit gibts ab und zu auch Konflikte mit einigen Netzwerkhardware Kombis.
https://social.technet.microsoft.com/wiki/contents/articles/31357.hyper- ...