Failover Cluster, Dateiserver mit Windows Server 2019 Std
Hallo allerseits...ich glaub ich bin zu doof dazu oder zu blind - aber wie kann ich einen Failover Dateiserver am einfachsten einrichten? In meiner testumgebung habe ich zwei identische VMs, jede VM hat zwei virtuelle Festplatten - eine fürs Betriebssystem, und eine wo dann später die Freigaben drauf liegen sollen.
Diese beiden VMs haben bereits die Failover CLuster rolle instaliert, sind also auch Teil des ebenfalls in der Testumgebung befindlichen AD/DNS servers. Aber wie komme ich jetzt weiter, dass die beiden die zweite virtuelle Festplatte failover tauglich machen?
Ziel soll sein: Ich will mit dem AD/DNS server auf eine Dateifreigabe zugreifen - die auch bestehen soll, wenn ich einen der beiden Knoten ausschalte. Es muss sich also das darunterliegende Dateisystem replizieren - aber in beide richtungen, weil ja der Master dadurch immer switcht - jenachdem welchen knoten ich da gerade runtergefahren habe...aber wie am einfachsten realisieren? Finde da auch keine so passende anleitung im Netz
Muss halt eine echtzeit Blockreplizierung sein, also wenn man nen Word dokument auf hat und die lock datei wird erzeugt, und ich schalte dann einen Knoten ab - darf der User davon nichts mitbekommen, es muss alles weiterhin reibungslos laufen.
Diese beiden VMs haben bereits die Failover CLuster rolle instaliert, sind also auch Teil des ebenfalls in der Testumgebung befindlichen AD/DNS servers. Aber wie komme ich jetzt weiter, dass die beiden die zweite virtuelle Festplatte failover tauglich machen?
Ziel soll sein: Ich will mit dem AD/DNS server auf eine Dateifreigabe zugreifen - die auch bestehen soll, wenn ich einen der beiden Knoten ausschalte. Es muss sich also das darunterliegende Dateisystem replizieren - aber in beide richtungen, weil ja der Master dadurch immer switcht - jenachdem welchen knoten ich da gerade runtergefahren habe...aber wie am einfachsten realisieren? Finde da auch keine so passende anleitung im Netz
Muss halt eine echtzeit Blockreplizierung sein, also wenn man nen Word dokument auf hat und die lock datei wird erzeugt, und ich schalte dann einen Knoten ab - darf der User davon nichts mitbekommen, es muss alles weiterhin reibungslos laufen.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 666601
Url: https://administrator.de/forum/failover-cluster-dateiserver-mit-windows-server-2019-std-666601.html
Ausgedruckt am: 22.12.2024 um 16:12 Uhr
27 Kommentare
Neuester Kommentar
Moin,
dein Stichwort ist distributed File System (kurz DFS)
Links gibt es viele, zum Beispiel hier: https://www.windowspro.de/andreas-kroschel/das-distributed-file-system-d ...
Gruß
Doskias
dein Stichwort ist distributed File System (kurz DFS)
Links gibt es viele, zum Beispiel hier: https://www.windowspro.de/andreas-kroschel/das-distributed-file-system-d ...
Gruß
Doskias
Zitat von @Assassin:
Hallo allerseits...ich glaub ich bin zu doof dazu oder zu blind - aber wie kann ich einen Failover Dateiserver am einfachsten einrichten?
Hallo allerseits...ich glaub ich bin zu doof dazu oder zu blind - aber wie kann ich einen Failover Dateiserver am einfachsten einrichten?
Da wäre als Erstes die Entscheidung, ob klassischer Failover Cluster, DFS oder SOFS.
hab sowas früher mal betrieben... ein klassischer Cluster hat ja zwei Laufwerke: Witness und Quorum. Für einen Failover Fileshare braucht man da ein drittes Laufwerk, dann die Fileserver Rolle und etwas Geschick beim Clustersetupassistenten (HA Wizard)
Ansonsten Google hilft natürlich weiter...
https://www.veeam.com/blog/how-to-create-file-server-cluster-windows-201 ...
Ansonsten Google hilft natürlich weiter...
https://www.veeam.com/blog/how-to-create-file-server-cluster-windows-201 ...
Moin
Davon abgesehen, selbst wenn nicht: Die Möglichkeit mittels \\Server\ auf die Freigabe zu schreiben kannst du theoretisch beibehalten. Die Synchronisation erfolgt ebenfalls, allerdings nimmst du dir halt die Ausfallsicherheit. In wie weit das bei den Scannern Priorität hat, kann ich dir nicht sagen, da ich deine Umgebung nicht kenne. Ich persönlich denke aber, dass wenn dir 1 Fileserver im DFS-Verbund fehlt, dann hast du ganz andere Probleme als ein Paar User die nicht scannen können. Und wenn das zufällig grade auffallen sollte, wenn du wg. Updates neu startest, dann geht der Scann nach 5 Minuten ja wieder. Aber wie gesagt: Das ist nur theoretisch erforderlich, da die Netzwerkscanner die ich kenne mit DFS keine Probleme haben.
ohne DFS: Scanner --> Freigabe --> User-PC praktisch sofort sichtbar nach dem Scann
mit DFS: Scanner --> Server A -- Server B --> User-PS Ist bei der User bei der Anmeldung auf Server A gelandet, dann sieht er die Daten wir bei der Einstellung ohne DFS. ist er bei Server B gelandet dauert es etwas länger bis die Replizierung abgeschlossen ist,
DFS wird wie gesagt über DNS aufgelöst. Ein "schwenk" in dem Sinne erfolgt erst dann wenn der bei der Anmeldung ausgewählte Server nicht mehr verfügbar ist. Bei standortübergreifenden DFS ist daher eine saubere Konfiguration erforderlich, da zwischen Server A und B die Anbindung die Übertragung nochmal bremst. Ich hatte mal ein Konstrukt zweier DFS auf unterschiedlichen Standorten mit einer 25 MBit Leitung verbunden. Da wurden Bauzeichnungen von mehreren GB gescannt. Wenn Standort A gescannt hat, konnten die User direkt drauf zugreifen. Standort B hat die Daten erst viel später gehabt, da sie erst synchronisiert werden mussten. Allerdings mussten sie durch DFS nur einmal über die Leitung bis Standort B sie kannte und danach ging das öffnen deutlich schneller. Ohne DFS wären die Daten sofort für alle verfügbar gewesen, aber der Scann von Standort A nach B extrem lange gedauert und bei jedem Aufruf aus dem anderen Standort (egal wo die Daten gelegen haben) hätten mehrere GB über die 25Mbit Leitung übertragen werden müssen. Und da die User nicht warten, wurden die daten auch mehrfach geöffnet. DFS hat die Situation in dem Beispiel dahingehend deutlich entschärft, dass zumindest 1 Standort sofort auf alle Daten Zugriff hatte und die Leitung aus Standort B nicht permanent am Anschlag war, solange an beiden Standorten die Server Aktiv waren. Wenn natürlich an einem Standort der DFS nicht verfügbar war, war wieder alles wie vorher. Aber zum Glück nur temporär.
Man kann also nicht pauschal sagen, dass DFS langsamer ist oder nicht. Das hängt von der Betrachtung und Sichtweise ab. In meinem Beispiel mit unterschiedlichen Standorten war es für die Anwender an Standort A schneller, da die Daten vorher nur an Standort B lagen. Für die User Standort B hat es länger gedauert bis die Daten verfügbar waren, allerdings war es anschließend genau so schnell. Nebeneffekt war allerdings, dass beim Kunden durch die Existenz von DFS häufiger Wartungen am FS während der Arbeitszeit durchgeführt wurden anstatt außerhalb, wodurch Standort B oft auf den Fileserver an Standort A ausweichen musste, wodurch es dann für die User an Standort B auch langsamer war. Wenn du aber beide DFS am gleichen Standort hast, sollte sich da kein nennenswerter Zeitverlust durch die Synchronisation (von der ersten mal abgesehen wo alles abgeglichen wird) feststellen lassen.
Gruß
Doskias
Zitat von @Assassin:
bei DFS hatte man doch aber glaube ich keine normale Freigabe, also Geräte wie Netzwerkscanner können da nicht darauf zugreifen, oder?
Doch. Du ersetzt ja den Servernamen im Prinzip nur durch den Domänennamen. Ob du nun also \\Server\ eingibst und der Name auf eine IP-Adresse aufgelöst wird oder ob du \\Domäne\ eingibst und der DNS sich eine von mehreren IPs aussucht spielt keine Rolle. Die Scanner mit denen ich bislang bei DFS-Konstrukten zusammen gearbeitet haben konnte das.bei DFS hatte man doch aber glaube ich keine normale Freigabe, also Geräte wie Netzwerkscanner können da nicht darauf zugreifen, oder?
Davon abgesehen, selbst wenn nicht: Die Möglichkeit mittels \\Server\ auf die Freigabe zu schreiben kannst du theoretisch beibehalten. Die Synchronisation erfolgt ebenfalls, allerdings nimmst du dir halt die Ausfallsicherheit. In wie weit das bei den Scannern Priorität hat, kann ich dir nicht sagen, da ich deine Umgebung nicht kenne. Ich persönlich denke aber, dass wenn dir 1 Fileserver im DFS-Verbund fehlt, dann hast du ganz andere Probleme als ein Paar User die nicht scannen können. Und wenn das zufällig grade auffallen sollte, wenn du wg. Updates neu startest, dann geht der Scann nach 5 Minuten ja wieder. Aber wie gesagt: Das ist nur theoretisch erforderlich, da die Netzwerkscanner die ich kenne mit DFS keine Probleme haben.
und DFS soll beim schreiben recht langsam sein.
Nein wieso? DFS schreibt die Daten auf einen der Server und repliziert sie dann. Das schreiben auf einen Server dauert (wenn am gleichen Standort) nicht länger als im DFS Verbund. Allerdings kommt anschließend noch die Zeit der Replizierung hinzu bis es alle sehen. Je nach Scanngröße und auf welchem der Server man gelandete ist, kann es schon etwas dauern, bis man den Scann sieht. Beispiel:ohne DFS: Scanner --> Freigabe --> User-PC praktisch sofort sichtbar nach dem Scann
mit DFS: Scanner --> Server A -- Server B --> User-PS Ist bei der User bei der Anmeldung auf Server A gelandet, dann sieht er die Daten wir bei der Einstellung ohne DFS. ist er bei Server B gelandet dauert es etwas länger bis die Replizierung abgeschlossen ist,
DFS wird wie gesagt über DNS aufgelöst. Ein "schwenk" in dem Sinne erfolgt erst dann wenn der bei der Anmeldung ausgewählte Server nicht mehr verfügbar ist. Bei standortübergreifenden DFS ist daher eine saubere Konfiguration erforderlich, da zwischen Server A und B die Anbindung die Übertragung nochmal bremst. Ich hatte mal ein Konstrukt zweier DFS auf unterschiedlichen Standorten mit einer 25 MBit Leitung verbunden. Da wurden Bauzeichnungen von mehreren GB gescannt. Wenn Standort A gescannt hat, konnten die User direkt drauf zugreifen. Standort B hat die Daten erst viel später gehabt, da sie erst synchronisiert werden mussten. Allerdings mussten sie durch DFS nur einmal über die Leitung bis Standort B sie kannte und danach ging das öffnen deutlich schneller. Ohne DFS wären die Daten sofort für alle verfügbar gewesen, aber der Scann von Standort A nach B extrem lange gedauert und bei jedem Aufruf aus dem anderen Standort (egal wo die Daten gelegen haben) hätten mehrere GB über die 25Mbit Leitung übertragen werden müssen. Und da die User nicht warten, wurden die daten auch mehrfach geöffnet. DFS hat die Situation in dem Beispiel dahingehend deutlich entschärft, dass zumindest 1 Standort sofort auf alle Daten Zugriff hatte und die Leitung aus Standort B nicht permanent am Anschlag war, solange an beiden Standorten die Server Aktiv waren. Wenn natürlich an einem Standort der DFS nicht verfügbar war, war wieder alles wie vorher. Aber zum Glück nur temporär.
Man kann also nicht pauschal sagen, dass DFS langsamer ist oder nicht. Das hängt von der Betrachtung und Sichtweise ab. In meinem Beispiel mit unterschiedlichen Standorten war es für die Anwender an Standort A schneller, da die Daten vorher nur an Standort B lagen. Für die User Standort B hat es länger gedauert bis die Daten verfügbar waren, allerdings war es anschließend genau so schnell. Nebeneffekt war allerdings, dass beim Kunden durch die Existenz von DFS häufiger Wartungen am FS während der Arbeitszeit durchgeführt wurden anstatt außerhalb, wodurch Standort B oft auf den Fileserver an Standort A ausweichen musste, wodurch es dann für die User an Standort B auch langsamer war. Wenn du aber beide DFS am gleichen Standort hast, sollte sich da kein nennenswerter Zeitverlust durch die Synchronisation (von der ersten mal abgesehen wo alles abgeglichen wird) feststellen lassen.
Gruß
Doskias
Hi,
von wieviel Daten (GB & Anzahl Dateien) reden wir denn?
Ist eine Echtzeit-Verfügbarkeit erforderlich?
Wie soll das Backup erfolgen?
Womit virtualisierst Du?
Was hast Du da als Disk-Speicher drunter?
Für einen Failovercluster brauchst Du je Rolle mindestens eine gemeinsame LUN. Diese LUN muss man dann dem Cluster als Clusterdatenträger hinzufügen. Dann richtet man die FS-Rolle eine und weist dieser diese LUN als Speicher hinzu. Die LUN wird dann immer an jenem Clusterknoten aktiv sein, welcher gerade die FS-Rolle breitstellt. Auf dem anderen Knoten wir die LUN als "down" angezeigt (roter Pfeil nach unten).
E.
von wieviel Daten (GB & Anzahl Dateien) reden wir denn?
Ist eine Echtzeit-Verfügbarkeit erforderlich?
Wie soll das Backup erfolgen?
Womit virtualisierst Du?
Was hast Du da als Disk-Speicher drunter?
Für einen Failovercluster brauchst Du je Rolle mindestens eine gemeinsame LUN. Diese LUN muss man dann dem Cluster als Clusterdatenträger hinzufügen. Dann richtet man die FS-Rolle eine und weist dieser diese LUN als Speicher hinzu. Die LUN wird dann immer an jenem Clusterknoten aktiv sein, welcher gerade die FS-Rolle breitstellt. Auf dem anderen Knoten wir die LUN als "down" angezeigt (roter Pfeil nach unten).
E.
Schau mal z.B. hier:
https://www.vembu.com/blog/hyper-v-guest-cluster-steps-to-create/
https://www.vembu.com/blog/hyper-v-guest-cluster-steps-to-create/
Ja und nein.
Hochverfügbarkeit und Höchstverfügbarkeit und Failover sind halt verschieden Paar Schuhe.
Höchstverfügbarkeit (im Sinne von immer, 100%) bekommst Du mit Windows, Hyper-V oder auch Vmware ESX & vSphere nicht hin.
Bei Hochverfügbarkeit muss zuerst klar definiert werden, was man da an Anforderungen hat. Und da hast Du schon zwei genannt, welche mit den vorhandenen Mitteln bedingt realisierbar sind.
"Unterbrechungsfrei Kopieren" geht mit Failovercluster, solange es ein geplanter Schwenk ist. Bei Ausfall und wieder Hochfahren ist es wie beim Ausfall einer VM und HA auf einem andren Host.
"Freigabe immer verfügbar" geht mit DFS-N und DFS-R. Wobei es auch hier zu kurzen Unterbrechungen kommen kann. Außerdem muss man aufpassen, wenn beide Replikate in der selben AD Site liegen und beide vom Client aus erreichbar sind.
Man kann auch DFS-N/R mit Failovercluster kombinieren. Muss man halt abschätzen, ob es sich lohnt.
Wenn Du so von FT schwärmst, dann wirst Du dir da was einkaufen müssen. Mit Bordmitteln geht das nicht.
Ansonsten: Definiere für Eure Verhältnisse realistische Ziele für das HA und dann setze es entsprechend um.
Hochverfügbarkeit und Höchstverfügbarkeit und Failover sind halt verschieden Paar Schuhe.
Höchstverfügbarkeit (im Sinne von immer, 100%) bekommst Du mit Windows, Hyper-V oder auch Vmware ESX & vSphere nicht hin.
Bei Hochverfügbarkeit muss zuerst klar definiert werden, was man da an Anforderungen hat. Und da hast Du schon zwei genannt, welche mit den vorhandenen Mitteln bedingt realisierbar sind.
"Unterbrechungsfrei Kopieren" geht mit Failovercluster, solange es ein geplanter Schwenk ist. Bei Ausfall und wieder Hochfahren ist es wie beim Ausfall einer VM und HA auf einem andren Host.
"Freigabe immer verfügbar" geht mit DFS-N und DFS-R. Wobei es auch hier zu kurzen Unterbrechungen kommen kann. Außerdem muss man aufpassen, wenn beide Replikate in der selben AD Site liegen und beide vom Client aus erreichbar sind.
Man kann auch DFS-N/R mit Failovercluster kombinieren. Muss man halt abschätzen, ob es sich lohnt.
Wenn Du so von FT schwärmst, dann wirst Du dir da was einkaufen müssen. Mit Bordmitteln geht das nicht.
Ansonsten: Definiere für Eure Verhältnisse realistische Ziele für das HA und dann setze es entsprechend um.
Du könntest dennoch darüber nachdenken bei Gelegenheit auf DFS zu wechseln. Es ist zwar zunächst erstmal etwas aufwand, aber DFS klappt auch mit einem Server. Es findet halt keine Replizierung statt. Wenn du aber erstmal dein ganzes Netzwerk auf DFS umgestellt hast ist die nächste File-Server-Migration ohne wirklichen Aufwand verbunden. Dann musst du nur den neuen Fileserver ins DFS aufnehmen, die Replizierung abwarten und den alten aus dem DFS entfernen. Erspart dann eine Menge Anpassungen an GPOs und/oder freigegebenen Ordnern.
Zitat von @Doskias:
Du könntest dennoch darüber nachdenken bei Gelegenheit auf DFS zu wechseln. Es ist zwar zunächst erstmal etwas aufwand, aber DFS klappt auch mit einem Server. Es findet halt keine Replizierung statt. Wenn du aber erstmal dein ganzes Netzwerk auf DFS umgestellt hast ist die nächste File-Server-Migration ohne wirklichen Aufwand verbunden. Dann musst du nur den neuen Fileserver ins DFS aufnehmen, die Replizierung abwarten und den alten aus dem DFS entfernen. Erspart dann eine Menge Anpassungen an GPOs und/oder freigegebenen Ordnern.
Das hat zwar nichts mit HA zu tun ist aber dennoch vollkommen richtig und empfehlenswert!Du könntest dennoch darüber nachdenken bei Gelegenheit auf DFS zu wechseln. Es ist zwar zunächst erstmal etwas aufwand, aber DFS klappt auch mit einem Server. Es findet halt keine Replizierung statt. Wenn du aber erstmal dein ganzes Netzwerk auf DFS umgestellt hast ist die nächste File-Server-Migration ohne wirklichen Aufwand verbunden. Dann musst du nur den neuen Fileserver ins DFS aufnehmen, die Replizierung abwarten und den alten aus dem DFS entfernen. Erspart dann eine Menge Anpassungen an GPOs und/oder freigegebenen Ordnern.
Zitat von @Assassin:
aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Wenn man die Hochverfügbarkeit der Freigabe aktiviert hat (das muss man je Freigabe extra aktvieren, wenn erwünscht), dann werden alle aktiven Sessions synchronisiert bzw. die Clients informiert. Was der Server da jetzt ganz genau macht, weiß ich nicht auswendig. Also ob er jetzt mit dem Schwenk wartet, bis die Kopie fertig ist oder ob die Kopie dann mit dem Schwenk springt. Das müsstet Du dann mal testen.aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Edit: Ich habe "DFS" überlesen und für Failovercluster geantwortet.
Zitat von @Assassin:
aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Da bricht er die Kopie ab.aber wie schaut es mit DFS aus wenn ich beim Kopieren einer großen datei auf die Freigabe - einen Knoten kontrolliert neustarte? wird dann der Kopiervorgang unterbrochen? also die Aktive verbindung zur freigabe?
Das ist ganz einfach:
Gruß
Doskias
dann geht das auch ohne Unterbrechung selbst wenn ich vom Hypervisor den Stecker ziehe.
Hierbei hakt es kurz und der Server ist kurze Zeit später (einige Sekunden) unter der gleichen IP-Adresse wieder erreichbar.Aber warum ist das so schwer umzusetzen für eine popelige Freigabe?
Weil die DFS-Freigabe vom DNS auf eine IP der DFS-Server aufgelöst wird. Wenn du dann eine Datei kopierst, will der Rechner diese zu einem Server verschieben. Wenn der Server dann weg ist, bricht der Kopiervorgang ab. Windows erkennt, dass der Server weg ist, fragt beim DNS nach und bekommt eine andere IP (also einen anderen DFS-Server) und im Explorer ist alles wie vorher.Gruß
Doskias
Zitat von @Assassin:
Naja ich werd mir das mal mit dem DFS genauer anschauen, auch obs da möglichkeiten gibt dass der CLient die neue ShareIP mitgeteilt bekommt ohne dass der Client sich abmelden und neu anmelden muss.
(Ich war ein paar Tage nicht online)Naja ich werd mir das mal mit dem DFS genauer anschauen, auch obs da möglichkeiten gibt dass der CLient die neue ShareIP mitgeteilt bekommt ohne dass der Client sich abmelden und neu anmelden muss.
Man kann am DFS-Ordner einstellen, wie lange der Client das einmal ausgewählte Ziel sich im Cache merken soll.
Zitat von @Assassin:
OK. Macht es da sinn das auf z.B. 10 sekunden zu stellen - sofern das überhaupt geht?
Man kann da Sekunden einstellen. 10 Sekunden sind aber arg wenig. Bedenke: Jeder Client, welche da gerade auf diesen Pfad zugreift, würde deswegen alle 10 Sekunden eine Anfrage stellen. Auch wird der Client, wenn das zuletzt verwendete Ziel nicht mehr erreichbar ist, sofort ein alternatives Ziel anfragen, bevor er ne Fehlermeldung bringt. Bzw. ich schätze, der Client bekommt schon bei der ersten Anfrage alle Ziele gemeldet und versucht dann einfach das nächste mit der höchsten Priorität aus der Liste .OK. Macht es da sinn das auf z.B. 10 sekunden zu stellen - sofern das überhaupt geht?