Proxmox VE Reset adapter unexpectedly in public IP Cluster
Hey, ich weiß nicht ob nicht hier jemand helfen kann, aber ich probiere es mal. Und zwar habe ich folgendes Problem:
Ich habe eine Proxmox Umgebung aus zwei Hosts die im Cluster mit zwei Public IPs laufen, auf jedem der Hosts sind jeweils 3 VMs mit jeweils 3 weiteren Public IPs (Ich kann nicht sagen ob das der Best Practise ist mit den Public IPs). Jetzt bekomme ich seit kutzen immer wieder ein Host Down weil der Link 0 abstürzt und Fehlermeldungen wie: " e1000e 0000:00:1f.6 eno1: Reset adapter unexpectedly", "vmbr0: port 1(eno1) entered disabled state" und "vmbr0: port 1(eno1) entered forwarding state". Wenn ich die Lösungen versuche wie es jeder in jedem Forum schreibt und zwar:
ethtool -K <device name> gso off gro off tso off tx off rx off dann bricht die Verbindung ab und ich darf den Server per Hetzner neu starten.
Das Kuriose ist, die IP auf dem der Proxmox läuft ist nicht erreichbar. Aber der Server scheint zu laufen, da die VMs auf dem Proxmox noch ganz normal erreichbar sind.
Kann mir bitte jemand helfen?
Ich habe eine Proxmox Umgebung aus zwei Hosts die im Cluster mit zwei Public IPs laufen, auf jedem der Hosts sind jeweils 3 VMs mit jeweils 3 weiteren Public IPs (Ich kann nicht sagen ob das der Best Practise ist mit den Public IPs). Jetzt bekomme ich seit kutzen immer wieder ein Host Down weil der Link 0 abstürzt und Fehlermeldungen wie: " e1000e 0000:00:1f.6 eno1: Reset adapter unexpectedly", "vmbr0: port 1(eno1) entered disabled state" und "vmbr0: port 1(eno1) entered forwarding state". Wenn ich die Lösungen versuche wie es jeder in jedem Forum schreibt und zwar:
ethtool -K <device name> gso off gro off tso off tx off rx off dann bricht die Verbindung ab und ich darf den Server per Hetzner neu starten.
Das Kuriose ist, die IP auf dem der Proxmox läuft ist nicht erreichbar. Aber der Server scheint zu laufen, da die VMs auf dem Proxmox noch ganz normal erreichbar sind.
Kann mir bitte jemand helfen?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 940931961
Url: https://administrator.de/forum/proxmox-ve-reset-adapter-unexpectedly-in-public-ip-cluster-940931961.html
Ausgedruckt am: 23.12.2024 um 02:12 Uhr
5 Kommentare
Neuester Kommentar
Wenn Du Bridged Network nutzt, dann hat die physische Karte keine IP zu bekommen sondern die vmbr0 wird auf die ens0 bridged. Sprich die public IP vom Hypervisor hat vmbr0 und da lauscht dann der Hypervisor. Und schon gar nicht 2 mal die IP für die physische und bridged Karte nutzen.
Dein Hypervisor braucht eine IP und Deine VMs brauchen eine IP. Arbeitest Du ohne NAT, braucht jede VM ihre eigene IP. Dafür haste ja aber die vmbr0. Die IP vom Host ist meinetwegen Deine 123.123.123.87/27. Dann gibst Du Deinen VMs (innerhalb der VM, das konfigurierst Du nicht im Proxmox) eigene IPs wie z.B. 123.123.123.88/27, 89/27, 90/27 usw... zumindest wenn Du nur 1 NIC hast.
Das beschriebene Verhalten passt bissl zu IP Dopplung, wenn der Hypervisor und die VM 1 IP haben wollen. Kann das sein?
Für Dein Setup würde ich eher, sofern möglich, NAT empfehlen (alternativ Failover IP) und dann eben ein HA PFSense oder OPNsense. Du könntest den DNS so einstellen, dass der Eintrag einer bestimmten VM immer auf die jeweilige IP vom Host zeigt, um Backend Traffic zu verringern. Letztlich kommst Du für HA aber nicht an failover IPs vorbei die automatisch auf den neuen Host schwenken wenn einer aussteigt.
Dein Hypervisor braucht eine IP und Deine VMs brauchen eine IP. Arbeitest Du ohne NAT, braucht jede VM ihre eigene IP. Dafür haste ja aber die vmbr0. Die IP vom Host ist meinetwegen Deine 123.123.123.87/27. Dann gibst Du Deinen VMs (innerhalb der VM, das konfigurierst Du nicht im Proxmox) eigene IPs wie z.B. 123.123.123.88/27, 89/27, 90/27 usw... zumindest wenn Du nur 1 NIC hast.
Das beschriebene Verhalten passt bissl zu IP Dopplung, wenn der Hypervisor und die VM 1 IP haben wollen. Kann das sein?
Für Dein Setup würde ich eher, sofern möglich, NAT empfehlen (alternativ Failover IP) und dann eben ein HA PFSense oder OPNsense. Du könntest den DNS so einstellen, dass der Eintrag einer bestimmten VM immer auf die jeweilige IP vom Host zeigt, um Backend Traffic zu verringern. Letztlich kommst Du für HA aber nicht an failover IPs vorbei die automatisch auf den neuen Host schwenken wenn einer aussteigt.
Ich habe 1 Public IP für den Hypervisor sowie eine weitere für den NAT Router. Da die VMs immer defaultmäßig vmbr0 bekommen hab ich das als VM Netz genommen um nicht immer umherzuklicken:
10.0.0.1 hat die Routing VM. 10.0.0.2 hat der Hypervisor weil ich das Webpanel vom Router und das Proxmox Interface über SSH Tunnel nur erreichbar gemacht habe. Alle VMs sind also auf dem vmbr0 "Switch".
source /etc/network/interfaces.d/*
auto lo
iface lo inet loopback
iface lo inet6 loopback
iface enp8s0 inet manual
auto vmbr0
iface vmbr0 inet static
address 10.0.0.2/24
bridge-ports none
bridge-stp off
bridge-fd 0
auto vmbr1
iface vmbr1 inet static
address 123.456.12/26
gateway 123.456.1.1
bridge-ports enp8s0
bridge-stp off
bridge-fd 0
10.0.0.1 hat die Routing VM. 10.0.0.2 hat der Hypervisor weil ich das Webpanel vom Router und das Proxmox Interface über SSH Tunnel nur erreichbar gemacht habe. Alle VMs sind also auf dem vmbr0 "Switch".