thomas.bachmaier
Goto Top

Fehler im Hyper-V Cluster auf Server 2019 DC

Hallo zusammen,

ich habe hier ein etwas seltsames Problem auf einer neuen Hyper-V Umgebung.

Wir haben zwei neue Server (DELL) und eine neue Storage (ebefalls DELL) angeschafft um unsere alte Hyper-V Umgebung zu ersetzten. Die beiden Server wurden mit Server 2019 Datacenter installiert.
Die Windows-Updates wurden istalliert (beide Server gleicher Stand) und die Hyper-V sowie die Cluster Rolle installiert. Beide Server sind in einer Domäne (Funktionsebene 2012).
Danach wurde ein neues Cluster eingerichtet, da der alte Cluster Server 2012 R2 ist und somit die neuen Host nicht als Knoten hinzugefügt werden konnten. Zusätzlich wurde dann noch die CAU Rolle installiert und konfiguriert.
Beide Hosts haben 4 Netzwerkkarten.
- 2x10 GB im Team als vSwitch
- 2x 1GB im Team als Clusternetzwerk
Treiber und Bios und Firmware wurden mit dem Dell Server Update Utility überprüft, und sind alle auf dem aktuellen Stand.
Derzeit ist kein Virenscanner o.ä. installiert. Die Windows Firewall ist deaktiviert.

Jetzt zum eigentlichen Problem.

Wenn die beiden Hyper-V Host gestartet werden, lassen sich alle virtuellen Maschinen ganz normal starten und beenden. Auch die Live Migration zwischen den Knoten ist ohne Probleme möglich.

Wenn dann die beiden Hyper-V Hosts ein paar Tage laufen kommt es zu einem kritischen Fehlverhalten. Die virtuellen Server können nicht mehr neu gestartet werden (der Status bleibt bei im Clustermanager auf "wird beendet" hängen.), und die Live Migration auf einen anderen Knoten ist nicht mehr möglich.
Die einzigen Fehler die nach dem Start z.B. der Live Migration im Eventlog auftauchen stehen im Hyper-V-VMMS -> Operational (Event ID: 1106)

Die Überprüfung des Cluster zeigt keinerlei Fehler. Nur ein paar Warnungen dass z.B die Netzwerkverbindungen nicht redundat sind

Die einzige Möglichkeit die ich dann noch habe ist den Clusterdienst (clussvc.exe) auf dem aktuellen Knoten über den Task Manager zu beenden oder den Server hart auszuschalten. Ein normaler Reboot ist nicht mehr möglich weil der Server dann immer im Status „Clusterdienst wird beendet“ hängen bleibt.

Die Virtuellen Server können in dieser Zeit ganz normal betrieben werden. Es sind hier keinerlei Einschränkungen bemerkbar, außer dass ein Neustart nicht mehr möglich ist.

hatte jemand von euch schon mal so einen Fehler?

Grüße Thomas

Content-Key: 435217

Url: https://administrator.de/contentid/435217

Printed on: April 25, 2024 at 12:04 o'clock

Member: falscher-sperrstatus
falscher-sperrstatus Apr 01, 2019 updated at 11:16:01 (UTC)
Goto Top
Member: Thomas.Bachmaier
Thomas.Bachmaier Apr 01, 2019 at 12:03:40 (UTC)
Goto Top
Hi,

den Artikle hab ich auch schon gelesen. Der trifft hier aber nicht zu. Wir setzen weder eine gemischte Umgebung mit Server 2016 - 2019 ein noch den SCVMM. Die Verwaltung erfolgt rein mit dem Failovercluster-Manager.

Das seltsame ist, dass es dirket nach dem Neustart funktioniert. Der Fehler tritt erst nach ein paar Tagen Laufzeit auf.

Grüße Thomas
Member: eosHenning
eosHenning Jun 25, 2019 at 13:59:36 (UTC)
Goto Top
Hallo Thomas,

wir haben nahezu die gleiche Ausgangssituation und das gleiche Problem/Verhalten der beiden Hyper-V Host wie von dir auch beschrieben.

Gibt es inzwischen scho neue Erkenntnisse oder Lösungsansätze an der Ecke?

Gruß Henning
Member: Thomas.Bachmaier
Thomas.Bachmaier Jun 25, 2019 at 14:26:29 (UTC)
Goto Top
Hallo Henning,

ja bei uns ist das Problem gelöst.
Wir setzen im Hyper-V Netzwerkkarten im Team ein. Wenn geteamte Netzwerkkarten als vSwitch verwendet werden, muss jeder Netzwerkkarte ein eigener Prozessorkern zugewiesen werden. Als wir das gemacht hatten war der Fehler weg.

Dieser Technet Artikel hat mich auf die richtige Spur gebracht. Schau mal ob ihr diese Event ID auch habt.
https://social.technet.microsoft.com/Forums/windowsserver/en-US/e06fede9 ...

Grüße Thomas