Realisierung eines Hochverfügbarkeitscluster mit NAS Anbindung
Guten Abend,
aufgrund meiner bevorstehenden Prüfung zum Fachinformatiker Systemintegration habe ich für meine betriebliche Projektarbeit geplant, ein Hochverfügbarkeitscluster mit iSCSI-Anbindung an ein NAS-System für unseren Standort in Kiel zu realisieren.
Projektantrag wurde auch von der IHK ohne Anmerkungen genehmigt.
Mir steht folgende Hard- und Software zur Verfügung:
Server (3 Stück)
Hersteller: Hewlett Packard Enterprise
Produktbezeichnung: ProLiant DL385p Gen8
Prozessor: 2 * AMD Opteron 6238 mit 12 Kernen á 2,5 GHz
Arbeitsspeicher: 98 GB RAM
Festplatten: 2 * 960GB SAS 10k im Raid-1 Verbund
Netzwerkkarten: 8 x GB LAN
Switch (1 Stück)
Hersteller: D-Link
Produktbezeichnung: DGS-1210 Web Smart Switch
Anschlüsse: 48 Ports
NAS (1 Stück)
Hersteller: Synology
Produktbezeichnung: RS2416RP+
Netzwerkkarten: 4 x GB LAN
Festplatten HDD: 10 x WD RED Pro 1 TB
Festplatten SSD: 2 x 500 GB Samsung 850 EVO
Software
VMware vCenter Server 6.0 U2a
VMware ESXi 6.0 U2
Da ich kein Freund davon bin, ein vCenter zu virtualisieren, habe ich mich dazu entschlossen, die drei zur Verfügung stehenden Clients wie folgt aufzuteilen:
Server I:
vCenter-Server: Basierend auf Windows Server 2012 R2
Server II:
ESXi-Server-01
Server III:
ESXi-Server-02
Auf dem VMware Cluster wird zudem ein Domänencontroller (Integration in die Firmendomäne, zzgl. DNS und DHCP) als auch ein Fileserver (Datenübernahme vom alten Client, DFS-Replikation auf den Fileserver in die Hauptfiliale) auf Basis von Windows Server 2012 R2 installiert und konfiguriert.
Bei der Einrichtung des Synology NAS habe ich mir folgendes Vorgestellt:
Aufteilung Festplatten
1 x Raid-50 bestehend aus 2 x (4 x WD RED Pro 1 TB)
2 x Hot Spare
2 x SSD Cache
Würdet Ihr die Festplatten anders aufteilen?
Konfiguration Netzwerkkarten
1 x Management Karte zur Administration des NAS-Systems
Die restlichen 3 Netzwerkkarten würde ich gerne dafür nutzen, um das VMware Cluster anzuknüpfen. Jede Karte in einem eigenen VLAN (mit Round-Robin). Ich würde ungern die drei übrigen Karten zu einer Aggregation zusammenschließen, da ich da keine Performance Steigerung sehe.
Würdet Ihr das eventuell genauso machen oder gibt es eventuell Änderungsvorschläge?
Ich bedanke mich schon einmal für die kommenden Antworten im Voraus.
Viele Grüße
aufgrund meiner bevorstehenden Prüfung zum Fachinformatiker Systemintegration habe ich für meine betriebliche Projektarbeit geplant, ein Hochverfügbarkeitscluster mit iSCSI-Anbindung an ein NAS-System für unseren Standort in Kiel zu realisieren.
Projektantrag wurde auch von der IHK ohne Anmerkungen genehmigt.
Mir steht folgende Hard- und Software zur Verfügung:
Server (3 Stück)
Hersteller: Hewlett Packard Enterprise
Produktbezeichnung: ProLiant DL385p Gen8
Prozessor: 2 * AMD Opteron 6238 mit 12 Kernen á 2,5 GHz
Arbeitsspeicher: 98 GB RAM
Festplatten: 2 * 960GB SAS 10k im Raid-1 Verbund
Netzwerkkarten: 8 x GB LAN
Switch (1 Stück)
Hersteller: D-Link
Produktbezeichnung: DGS-1210 Web Smart Switch
Anschlüsse: 48 Ports
NAS (1 Stück)
Hersteller: Synology
Produktbezeichnung: RS2416RP+
Netzwerkkarten: 4 x GB LAN
Festplatten HDD: 10 x WD RED Pro 1 TB
Festplatten SSD: 2 x 500 GB Samsung 850 EVO
Software
VMware vCenter Server 6.0 U2a
VMware ESXi 6.0 U2
Da ich kein Freund davon bin, ein vCenter zu virtualisieren, habe ich mich dazu entschlossen, die drei zur Verfügung stehenden Clients wie folgt aufzuteilen:
Server I:
vCenter-Server: Basierend auf Windows Server 2012 R2
Server II:
ESXi-Server-01
Server III:
ESXi-Server-02
Auf dem VMware Cluster wird zudem ein Domänencontroller (Integration in die Firmendomäne, zzgl. DNS und DHCP) als auch ein Fileserver (Datenübernahme vom alten Client, DFS-Replikation auf den Fileserver in die Hauptfiliale) auf Basis von Windows Server 2012 R2 installiert und konfiguriert.
Bei der Einrichtung des Synology NAS habe ich mir folgendes Vorgestellt:
Aufteilung Festplatten
1 x Raid-50 bestehend aus 2 x (4 x WD RED Pro 1 TB)
2 x Hot Spare
2 x SSD Cache
Würdet Ihr die Festplatten anders aufteilen?
Konfiguration Netzwerkkarten
1 x Management Karte zur Administration des NAS-Systems
Die restlichen 3 Netzwerkkarten würde ich gerne dafür nutzen, um das VMware Cluster anzuknüpfen. Jede Karte in einem eigenen VLAN (mit Round-Robin). Ich würde ungern die drei übrigen Karten zu einer Aggregation zusammenschließen, da ich da keine Performance Steigerung sehe.
Würdet Ihr das eventuell genauso machen oder gibt es eventuell Änderungsvorschläge?
Ich bedanke mich schon einmal für die kommenden Antworten im Voraus.
Viele Grüße
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 330343
Url: https://administrator.de/forum/realisierung-eines-hochverfuegbarkeitscluster-mit-nas-anbindung-330343.html
Ausgedruckt am: 27.04.2025 um 06:04 Uhr
14 Kommentare
Neuester Kommentar
Guten Abend...
aufgrund meiner bevorstehenden Prüfung zum Fachinformatiker Systemintegration habe ich für meine betriebliche Projektarbeit geplant, ein Hochverfügbarkeitscluster mit iSCSI-Anbindung an ein NAS-System für unseren Standort in Kiel zu realisieren.
Projektantrag wurde auch von der IHK ohne Anmerkungen genehmigt.
Mir steht folgende Hard- und Software zur Verfügung:
Server (3 Stück)
Hersteller: Hewlett Packard Enterprise
Produktbezeichnung: ProLiant DL385p Gen8
Prozessor: 2 * AMD Opteron 6238 mit 12 Kernen á 2,5 GHz
Arbeitsspeicher: 98 GB RAM
Festplatten: 2 * 960GB SAS 10k im Raid-1 Verbund
Netzwerkkarten: 8 x GB LAN
oh je... die besorg dir wenigistens Mellanox ConnectX-2 Single Port 10 Gbit/s SFP+ Server Adapter - die bekommst du nachgeworfen..
Switch (1 Stück)
Hersteller: D-Link
Produktbezeichnung: DGS-1210 Web Smart Switch
Anschlüsse: 48 Ports
und einen 10 Gig Switch...
und HA mit nur einem Switch ????
NAS (1 Stück)
Hersteller: Synology
Produktbezeichnung: RS2416RP+
Netzwerkkarten: 4 x GB LAN
Festplatten HDD: 10 x WD RED Pro 1 TB
Festplatten SSD: 2 x 500 GB Samsung 850 EVO
die evo sind dafür nicht zugelassen...
HA mit nur einem NAS ????
Software
VMware vCenter Server 6.0 U2a
VMware ESXi 6.0 U2
welche VMWare version genau?
Da ich kein Freund davon bin, ein vCenter zu virtualisieren, habe ich mich dazu entschlossen, die drei zur Verfügung stehenden Clients wie folgt aufzuteilen:
finde ich unnötig.. aber egal...
du meinst sicher Host...
Server I:
vCenter-Server: Basierend auf Windows Server 2012 R2
das soll dann der Datacenter sein....
Server II:
ESXi-Server-01
Server III:
ESXi-Server-02
Auf dem VMware Cluster wird zudem ein Domänencontroller (Integration in die Firmendomäne, zzgl. DNS und DHCP) als auch ein Fileserver (Datenübernahme vom alten Client, DFS-Replikation auf den Fileserver in die Hauptfiliale) auf Basis von Windows Server 2012 R2 installiert und konfiguriert.
Bei der Einrichtung des Synology NAS habe ich mir folgendes Vorgestellt:
Aufteilung Festplatten
1 x Raid-50 bestehend aus 2 x (4 x WD RED Pro 1 TB)
2 x Hot Spare
2 x SSD Cache
Würdet Ihr die Festplatten anders aufteilen?
ja... dein NAS braucht auch eine 10 Gbit karte... du bekommst die Daten nicht übertragen, das system wird zu langsam mit 1GBit
ich würde die SSD´s nicht für nen Cache verschwenden- mehr SSD´s besorgen... achte darauf das die WD Pro´s auch 7200er sind.
Konfiguration Netzwerkkarten
1 x Management Karte zur Administration des NAS-Systems
Die restlichen 3 Netzwerkkarten würde ich gerne dafür nutzen, um das VMware Cluster anzuknüpfen. Jede Karte in einem eigenen VLAN (mit Round-Robin). Ich würde ungern die drei übrigen Karten zu einer Aggregation zusammenschließen, da ich da keine Performance Steigerung sehe.
es soll also HA und DRS werden mit FT, EVC und vSAN ?
Würdet Ihr das eventuell genauso machen oder gibt es eventuell Änderungsvorschläge?
Ich bedanke mich schon einmal für die kommenden Antworten im Voraus.
Viele Grüße
Frank
aufgrund meiner bevorstehenden Prüfung zum Fachinformatiker Systemintegration habe ich für meine betriebliche Projektarbeit geplant, ein Hochverfügbarkeitscluster mit iSCSI-Anbindung an ein NAS-System für unseren Standort in Kiel zu realisieren.
Projektantrag wurde auch von der IHK ohne Anmerkungen genehmigt.
Mir steht folgende Hard- und Software zur Verfügung:
Server (3 Stück)
Hersteller: Hewlett Packard Enterprise
Produktbezeichnung: ProLiant DL385p Gen8
Prozessor: 2 * AMD Opteron 6238 mit 12 Kernen á 2,5 GHz
Arbeitsspeicher: 98 GB RAM
Festplatten: 2 * 960GB SAS 10k im Raid-1 Verbund
Netzwerkkarten: 8 x GB LAN
Switch (1 Stück)
Hersteller: D-Link
Produktbezeichnung: DGS-1210 Web Smart Switch
Anschlüsse: 48 Ports
und HA mit nur einem Switch ????
NAS (1 Stück)
Hersteller: Synology
Produktbezeichnung: RS2416RP+
Netzwerkkarten: 4 x GB LAN
Festplatten HDD: 10 x WD RED Pro 1 TB
Festplatten SSD: 2 x 500 GB Samsung 850 EVO
HA mit nur einem NAS ????
Software
VMware vCenter Server 6.0 U2a
VMware ESXi 6.0 U2
Da ich kein Freund davon bin, ein vCenter zu virtualisieren, habe ich mich dazu entschlossen, die drei zur Verfügung stehenden Clients wie folgt aufzuteilen:
du meinst sicher Host...
Server I:
vCenter-Server: Basierend auf Windows Server 2012 R2
Server II:
ESXi-Server-01
Server III:
ESXi-Server-02
Auf dem VMware Cluster wird zudem ein Domänencontroller (Integration in die Firmendomäne, zzgl. DNS und DHCP) als auch ein Fileserver (Datenübernahme vom alten Client, DFS-Replikation auf den Fileserver in die Hauptfiliale) auf Basis von Windows Server 2012 R2 installiert und konfiguriert.
Bei der Einrichtung des Synology NAS habe ich mir folgendes Vorgestellt:
Aufteilung Festplatten
1 x Raid-50 bestehend aus 2 x (4 x WD RED Pro 1 TB)
2 x Hot Spare
2 x SSD Cache
Würdet Ihr die Festplatten anders aufteilen?
ich würde die SSD´s nicht für nen Cache verschwenden- mehr SSD´s besorgen... achte darauf das die WD Pro´s auch 7200er sind.
Konfiguration Netzwerkkarten
1 x Management Karte zur Administration des NAS-Systems
Die restlichen 3 Netzwerkkarten würde ich gerne dafür nutzen, um das VMware Cluster anzuknüpfen. Jede Karte in einem eigenen VLAN (mit Round-Robin). Ich würde ungern die drei übrigen Karten zu einer Aggregation zusammenschließen, da ich da keine Performance Steigerung sehe.
Würdet Ihr das eventuell genauso machen oder gibt es eventuell Änderungsvorschläge?
Ich bedanke mich schon einmal für die kommenden Antworten im Voraus.
Viele Grüße
Moin,
Wenn ja, auf Windows Basis oder eher die Appliance nutzen?
Die Appliance ist eigentlich erst ab 6.5 gut gelungen (z.B. Update Manager). Diese könnte evtl. mit den genannten Versionen von ESXi kompatibel sein.
Gruß,
Dani
Würdest du das vCenter Virtualisieren?
Ich frag mal anders rum: Warum virtualisierst du den Domain Controller aber das vCenter nicht?Wenn ja, auf Windows Basis oder eher die Appliance nutzen?
Die Appliance ist eigentlich erst ab 6.5 gut gelungen (z.B. Update Manager). Diese könnte evtl. mit den genannten Versionen von ESXi kompatibel sein.
Wäre das mit Essentials Plus überhaupt möglich?
Kannst du hier nachlesen.Für vSAN bräuchte ich drei Hosts oder?
Jup. Details diskutieren wir gerade hier.Gruß,
Dani
und HA mit nur einem Switch ????
Richtig ! Deshalb würde man als Prüfer den Kandidaten sofort durchfallen lassen. Zumal der Switch ein billiger Chinaböller ist der noch nicht einmal ein redundantes Netzteil hat.So einen Schrott an einer Stelle die essentiell ist für ein HA Design ist tödlich. Dam it wird der Anspruch "Hochverfügbarkeit" vollständig ad absurdum geführt.
Auch mit einer VLAN Aufteilung auf ein Roud Robin zu hoffen ist ja absurd. Was sollte das denn bewirken ?
802.3ad Trunking mit LACP bringt in der Tat wenig wenn es eine Point to Point Connection ist von Server aufs NAS. Der Grund ist die zu geringe Entropie in den Daten. Da 802.3ad Trunking auf einem Hashing basiert. Siehe auch hier:
Cisco LAG-LACP an Synology RS3614xs+ Bonding Bandbreite zu niedrig
LAGs bringen also nur bedingt was.
Kollege Vision2015 hat recht hier konsequent besser auf 10G zu setzen. Aber dann mit einem redundanten Netzwerk Design und hoffentlich nicht mit China Billigswitches für den Campus Bereich.
Hier sollten zwingend DCB fähige Fabric Switches (z.B. Brocade VDX usw.) zum Einsatz kommen, die IP Storage Traffic lossless übertragen können identisch zu Fiberchannel. (DCB Feature)
In einem Fabric Design auf TRILL oder SPB Basis nutzt man dann auch aktiv alle parallelen redundanten Links.
So würde man das machen um auch die Prüfung zu bestehen und nicht mit einem einzelnen billigen China Switch der untersten Kategorie Blödmarkt.
Möglich aber das man im ländlichen Kiel sowas mit billiger Hardware baut. Da ist die IHK dann auch noch technisch sicher nicht so weit
Moin,
Gruß,
Dani
ch Virtualisiere den Domänencontroller, da ich in alle Niederlassungen eine redundante CC Leitung der Telekom habe. Von dieser warte her trage ich auch immer als Alternativer DNS Server den aus der Hauptfiliale ein.
Und warum das vCenter dann auch nicht?Wäre das den möglich bzw. sinnig das vCenter 6.5 in Verbindung mit ESXi 6.0 zu nutzen?
schau in der VMWare Compatibility Matrix nach.Gruß,
Dani
Moin,

Gruß,
Dani
...soll ich die Karten dann für iSCSI benutzen im eigenen VLAN?
Es hängt davon ab, ob die Switches für iSCSI ausgelegt sind? Es gibt da ein paar Anforderungen, welche du sicherlich schon abgeklärt hast. Falls das kein Problem ist, kann man es mit 2 VLANs realsieren. Denn du willst es hochverfügbar. Gruß,
Dani
Es gibt da ein paar Anforderungen, welche du sicherlich schon abgeklärt hast.
Wenn er D-Link nimmt hat er das klar versäumt das zu tun !Von dieser Warte her sollte ich keine Probleme bekommen.
Kommt immer drauf an wie die gruseligen HP Gurken konfiguriert sind ?!Eins für VLAN 1, das zweite für VLAN2?
Du meinst sicher eins für VLAN 100, das zweite für VLAN 200 oder ? VLAN 1 und 2 nutzt du ja gar nicht.Wenn du ein Sharing mit SMB 3 machen willst dann ja. Bei rein iSCSI hat das wenig Sinn denn das kann keine multiplen Streams und nimmt dann den Link den die Target IP bestimmt. Es sei denn du verteilst die IP Verbindungen fest statisch auf die Targets sofern du mehrere hast.
@aqui
@fa-computer-systems
Gruß,
Dani
Bei rein iSCSI hat das wenig Sinn denn das kann keine multiplen Streams und nimmt dann den Link den die Target IP bestimmt. Es sei denn du verteilst die IP Verbindungen fest statisch auf die Targets sofern du mehrere hast.
Da er von HA redet, nutzt er sicherlich zwei IP-Subnetze für iSCSI um bei einem evtl. Ausfall keine Unterbrechung zu haben.@fa-computer-systems
Muss ich dann auf dem Nas zwei Verschiedene iSCSI Targets erstellen? Eins für VLAN 1, das zweite für VLAN2?
Du redest selbst im Eingangsfrage von HA. Das gilt dann auch für iSCSI.HPE FlexFabric 5700-32XGT-8XG-2QSFP Switches.
Ob die Switches für iSCSI geeignet sind kann ich dir nicht sagen, da wir andere Hersteller einsetzen. Das Datenblatt ist dein Freund oder der HPE Support.Gruß,
Dani
Moin,
Bezüglich Hardware (NAS, Switches) gibt allerdings Defizite, wie wir oben schon angeführt haben. Wichtig für dich zu wissen, warum. Denn die Prüfungskomission wird dich nach solchen Dingen fragen. Genaus so könnte die Frage auftauchen, warum du dich für iSCSI entschieden hast und nicht für NFS.
Gruß,
Dani
Wäre das für euch auch so vorstellbar bzw. wie würdet Ihr den das ganze realisieren.
das Design ist so eine gute Basis.Bezüglich Hardware (NAS, Switches) gibt allerdings Defizite, wie wir oben schon angeführt haben. Wichtig für dich zu wissen, warum. Denn die Prüfungskomission wird dich nach solchen Dingen fragen. Genaus so könnte die Frage auftauchen, warum du dich für iSCSI entschieden hast und nicht für NFS.
Gruß,
Dani