Virtualisierungs LAB
Guten Abend,
ich möchte eine kleine TEST- Virtualisierungumgebung aufbauen und habe hierfür vom Chef gestellt bekommen, mit jeweils:
2x HP Z 600
1x Selbstgebauter Fileserver mit
1x CISCO Catalyst 2960S (24GBit)
Fileserver
Auf den FileServer möchte ich Windows Server 2019 installieren und hierüber für die beiden Workstations jeweils die RAID 5 Storages per NFS freigeben. (z.B. Raid 5 1 = VMHDD01, RAID 5 2 = VMHDD02)
Netzwerkseitig wird hier ein "NIC Teaming" für die beiden HP Quad Port Karten eingerichtet. Ebenfalls nutze ich eine Onboard Karte für das Management Netz und die zweite Onboardkarte für das Domänennetz.
Kurz aufgeschlüsselt:
NIC Team (8x NIC) VLAN 9 auf CISCO (192.168.9.0/24) description "STORAGENETZ"
Onboard 1 VLAN 10 auf Cisco Management (192.168.10.0/24) description "MGMT"
Onboard 2 VLAN 13 auf Cisco DomNetzwerk (192.168.13.0/24) description "DOM"
Workstations
Auf den HP Z600 möchte ich ProxmoxVE installieren. Diese werden in einem Cluster zusammengefasst und erhalten als VM Datastore die VMHDD01 und VMHDD02 via NFS vom Fileserver.
Netzwerkseitig wird ein Linux Bond (LCAP) für die HP Quad Port Karte erstellt sowie ein Linux Bond (LCAP) für die beiden PCI NICs. Die Onboard NIC wird für das management genutzt.
Kurz aufgeschlüsselt:
HP Quad Port (4x NIC im Bond) VLAN 9 auf CISCO Portchannel 1 LCAP (192.168.9.0/24) description "STORAGENETZ"
2x PCI GBit NIC (Bond) TRUNK (TESTNETZE) auf CISCO
1x Onboard NIC VLAN 10 auf Cisco Management (192.168.10.0/24) description "MGMT"
Zuerst habe ich den Fileserver mit Server 2019 installiert
Domainjoin (VLAN 13)
NFS Freigaben eingerichtet VMHDD01 und VMHDD02 (diese Anleitung habe ich dafür genutzt: NFS Einrichten Windows Pro )
Ich habe die Workstations mit Proxmox installiert (PRX01, PRX02)
Die Workstations zu einem Cluster zusammengefügt (Lead PRX01)
Habe das Linux Bonding eingerichtet für das Storagenetz
Auf dem CISCO die VLANs, Portchannels (LCAP) erstellt und LoadBalancing nach IP
Habe die NFS Freigaben eingebunden (kann darauf zugreifen und ISOs hochladen)
Meine Fragen:
Ist die Netzwerkkartenverteilung so OK? oder gibt es sinnvollere Lösungen? habe so jetzt ein Storage VLAN, ein Management VLAN und ein Dom Vlan wo aber nur der FS und DC drin sind)
Wie kann ich unter Proxmox einen "Trunk" für die VMs einrichten? und was muss ich da beachten?
Sollte ich für jedes Netz (außer natürlich DOM) einen DNS haben? oder reicht es so einfach wie jetzt aufgebaut?
Jetzt zu meinem Problem:
Möchte ich nun testhalber ein OS auf die VMHDDs installieren, dann meckert Proxmox beim erstellen der VM rum und bricht dann ab (die VHDD wird aber erstellt, meldung ist "cant loc cfs on VMHDD01/02)
Wenn jemand noch etwas unstimmiges sieht, bitte einfach schreiben...
Vielen Dank für die Aufmerksamkeit
ich möchte eine kleine TEST- Virtualisierungumgebung aufbauen und habe hierfür vom Chef gestellt bekommen, mit jeweils:
2x HP Z 600
- 2 Xeon Quad,
- 16GB RAM,
- 120GB SSD,
- 1x HP Quad Port NIC
- 2x PCI 1GB NIC
- (Insgesamt mit Onboard 7x NIC Pro Workstation)
1x Selbstgebauter Fileserver mit
- Xeon Quad
- INTEL Serverboard (2x NIC)
- 12GB RAM
- 2x Adaptec 6805T
- (2x 120 GB SSD RAID 1, 6x 250GB SSD RAID 5 CONTROLLER 1)
- (8x 250GB SSD RAID 5 CONTROLLER 2)
- 2x HP Quad Port NIC
- (Insgesamt 10x NIC für Fileserver)
1x CISCO Catalyst 2960S (24GBit)
Fileserver
Auf den FileServer möchte ich Windows Server 2019 installieren und hierüber für die beiden Workstations jeweils die RAID 5 Storages per NFS freigeben. (z.B. Raid 5 1 = VMHDD01, RAID 5 2 = VMHDD02)
Netzwerkseitig wird hier ein "NIC Teaming" für die beiden HP Quad Port Karten eingerichtet. Ebenfalls nutze ich eine Onboard Karte für das Management Netz und die zweite Onboardkarte für das Domänennetz.
Kurz aufgeschlüsselt:
NIC Team (8x NIC) VLAN 9 auf CISCO (192.168.9.0/24) description "STORAGENETZ"
Onboard 1 VLAN 10 auf Cisco Management (192.168.10.0/24) description "MGMT"
Onboard 2 VLAN 13 auf Cisco DomNetzwerk (192.168.13.0/24) description "DOM"
Workstations
Auf den HP Z600 möchte ich ProxmoxVE installieren. Diese werden in einem Cluster zusammengefasst und erhalten als VM Datastore die VMHDD01 und VMHDD02 via NFS vom Fileserver.
Netzwerkseitig wird ein Linux Bond (LCAP) für die HP Quad Port Karte erstellt sowie ein Linux Bond (LCAP) für die beiden PCI NICs. Die Onboard NIC wird für das management genutzt.
Kurz aufgeschlüsselt:
HP Quad Port (4x NIC im Bond) VLAN 9 auf CISCO Portchannel 1 LCAP (192.168.9.0/24) description "STORAGENETZ"
2x PCI GBit NIC (Bond) TRUNK (TESTNETZE) auf CISCO
1x Onboard NIC VLAN 10 auf Cisco Management (192.168.10.0/24) description "MGMT"
Zuerst habe ich den Fileserver mit Server 2019 installiert
Domainjoin (VLAN 13)
NFS Freigaben eingerichtet VMHDD01 und VMHDD02 (diese Anleitung habe ich dafür genutzt: NFS Einrichten Windows Pro )
Ich habe die Workstations mit Proxmox installiert (PRX01, PRX02)
Die Workstations zu einem Cluster zusammengefügt (Lead PRX01)
Habe das Linux Bonding eingerichtet für das Storagenetz
Auf dem CISCO die VLANs, Portchannels (LCAP) erstellt und LoadBalancing nach IP
Habe die NFS Freigaben eingebunden (kann darauf zugreifen und ISOs hochladen)
Meine Fragen:
Ist die Netzwerkkartenverteilung so OK? oder gibt es sinnvollere Lösungen? habe so jetzt ein Storage VLAN, ein Management VLAN und ein Dom Vlan wo aber nur der FS und DC drin sind)
Wie kann ich unter Proxmox einen "Trunk" für die VMs einrichten? und was muss ich da beachten?
Sollte ich für jedes Netz (außer natürlich DOM) einen DNS haben? oder reicht es so einfach wie jetzt aufgebaut?
Jetzt zu meinem Problem:
Möchte ich nun testhalber ein OS auf die VMHDDs installieren, dann meckert Proxmox beim erstellen der VM rum und bricht dann ab (die VHDD wird aber erstellt, meldung ist "cant loc cfs on VMHDD01/02)
Wenn jemand noch etwas unstimmiges sieht, bitte einfach schreiben...
Vielen Dank für die Aufmerksamkeit
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 418552
Url: https://administrator.de/contentid/418552
Ausgedruckt am: 22.11.2024 um 21:11 Uhr
3 Kommentare
Neuester Kommentar
du solltest allen Ernstes mal ein Proxmox Forum fragen... ich persönlich arbeite seit fast 20 Jahren mit allen möglichen und unmöglichen Virtualisierungstechniken, aber ein Proxmox ist mir dabei noch nicht untergekommen und ist auch nicht unbedingt Tagesthema hier.
Noch was zur Auslegung... niemand wird heutzutage noch ernsthaft einen Fileserver mit Windows machen. Es wäre bei weitem sinnvoller, ne fertige linuxbasierte NAS Software zu nehmen wie z.B. das FreeNAS. Außerdem wirst du - wenn du auf Windows für den Fileserver bleibst - 1 GBit haben und 7 Reservenetzwerkkarten. Weil Windows bei erkannter Link aggregation nämlich nur round robin macht und keine echte Parallelnutzung der Netzwerkkarten. Das gibts nur beim MacOS und einigen Linix-Derivaten.
Ich würd jeweils für je ein Raid array eine Portgruppe aus 2 NIC machen... wenn sowas mal produktiv geht wär wohl mal ein Umstieg auf 10 GBit für das Storagenetz mehr als nur sinnvoll, man trennt das dann auch pyhsisch, sprich man baut ein NAS für virtuelle Datenträger und ein NAS für Fileshare, NFS und Userdaten....
Noch was zur Auslegung... niemand wird heutzutage noch ernsthaft einen Fileserver mit Windows machen. Es wäre bei weitem sinnvoller, ne fertige linuxbasierte NAS Software zu nehmen wie z.B. das FreeNAS. Außerdem wirst du - wenn du auf Windows für den Fileserver bleibst - 1 GBit haben und 7 Reservenetzwerkkarten. Weil Windows bei erkannter Link aggregation nämlich nur round robin macht und keine echte Parallelnutzung der Netzwerkkarten. Das gibts nur beim MacOS und einigen Linix-Derivaten.
Ich würd jeweils für je ein Raid array eine Portgruppe aus 2 NIC machen... wenn sowas mal produktiv geht wär wohl mal ein Umstieg auf 10 GBit für das Storagenetz mehr als nur sinnvoll, man trennt das dann auch pyhsisch, sprich man baut ein NAS für virtuelle Datenträger und ein NAS für Fileshare, NFS und Userdaten....
Grüß dich,
Proxmox (kvm) ist doch gut, da braucht man keine Alternativen
mfg
Proxmox (kvm) ist doch gut, da braucht man keine Alternativen
mfg