fragefuereinenfreund
Goto Top

Datenmigration Windows Fileserver

Hallo zusammen,

wir haben hier folgende IST-Situation die wir gerne ändern möchten.

Auf einem virtualisierten Fileserver (Windows Server 2012) liegen die Projektverzeichnisse aller Abteilungen, Datenmenge ca. 12TB bei aktivierten Deduplizierung.
Der Filelevel-Restore sowie der Restore der gesamten VM dauert zu lange um die Vorgaben der GF bezüglich Restore zu erfüllen.
Abgesehen davon steht die ganze Firma, wenn der Server Down ist.
Wir würden nun gerne die Daten Abteilungsbezogen auf einzelne Server verteilen um 1. das Risiko bei einem Ausfall zu minimieren, als auch den Restore zu Beschleunigen.

Die Daten waren bisher wie folgt strukturiert:

- Fileserver
-- Freigabe: Aufträge (Bei alle Usern als Laufwerk M: verbunden)
--- Abteilung 1
AuftragXXX.1
AuftragXXX.2
etc....
--- Abteilung 2
AuftragXXX.1
AuftragXXX.2
etc....
--- Abteilung 3
AuftragXXX.1
AuftragXXX.2
etc....

Wie gehen wir hier jetzt am besten vor?
Klar ist, wir benötigen 5 neue Fileserver um die Daten abteilungsbezogen migrieren zu können. Kein Ding, ist ja schnell gemacht.
Aber wie jetzt am besten migrieren?

Variante 1:
Die Daten per Robocopy auf die neuen Fileserver kopieren, Freigabe einrichten, Netzlaufwerke GPO auf die neuen Freigabe ändern fertig.
Vorteil: Schnell gemacht
Nachteil: Wir haben Abteilungen die Abteilungsübergreifend arbeiten, diese hätten dann für jede Abteilung ein anderes Laufwerk.

Variante 2: Daten wie in Variante 1 per Robocopy auf die neuen Fileserver kopieren. Dann aber die Daten per DFS wieder für alle unter dem Laufwerksbuchstaben M: zur Verfügung zu stellen.
Vorteil: Für die User ändert sich nichts
Nachteil: Keinerlei Erfahrung mit DFS-Konfiguration


Was würdet Ihr empfehlen, bzw. gibt es bei DFS irgendwelche Fallstricke zu beachten.


Grüße

Content-ID: 92889029133

Url: https://administrator.de/contentid/92889029133

Ausgedruckt am: 24.11.2024 um 00:11 Uhr

nEmEsIs
nEmEsIs 29.01.2024 um 14:50:44 Uhr
Goto Top
Hi

Mach es über DFS-Namespace und robocopy.

Kannst im DFS-Namespace auch Berechtigungen auf die Hauptordner setzen und ABE aktivieren - sprich deine User sehen nur das wofür sie berechtigt wurden.

Bist mit DFS Namespace und einem Laufwerk am dynamischste bzgl zukünftigen Migrationen, Aufspaltung von Daten etc.

Ggf wenn es noch bzgl Berechtigungen unstrukturiert ist sich das mal ansehen.
https://www.migraven.com/?keyword=migraven&device=m&network=g&am ...

Mit freundlichen Grüßen Nemesis
ElmerAcmeee
ElmerAcmeee 29.01.2024 um 15:29:57 Uhr
Goto Top
Hallo,
+1 für DFS.
Das ganze unterteilt sich dann in DFS-N für die Namespaces, und aber auch in DFS-R für das Replizieren auf zusätzliche Filer.
Evtl hilft dir dass dann um zusätzlich eine Downtime zu vermeiden...

Gruß und viel Erfolg
kreuzberger
kreuzberger 29.01.2024 um 16:32:36 Uhr
Goto Top
Mahlzeit @FrageFuerEinenFreund,

zunächst einmal würde ich den server 2012 dringend durch server 2022 ersetzen. dazu bedarf es natürlich erstmal vor allem ein BACKUP.

Ob man nun wirklich sich 5 server mit windows extra da hinstellt oder ggf. über NAS Boxen verteilt ist eine abwägungssache.
Mehrere Serverlizenzen kosten eben Geld und eben wenn man nicht alle parallel virtualisiert mehrere Server-Blechge.
Inwiefern der vorhandenen Server als blech tauglich ist kann hier nicht beurteilt werden, man weiß ja nicht was da ist. aber ggf. machst du es weiter mit einem server, gehst aber per iSCSI über ausreichend flotte Netzwerkanbindung auf NAS Boxen für jede Abteilung und verteilst so die Daten entsprechend der vorgaben.

Das Übertragen der Daten per robocopy ist auf jeden fall sinnvoll.

Kreuzberger
ni.sch
ni.sch 29.01.2024 aktualisiert um 16:54:48 Uhr
Goto Top
Wenn es bei einer Maschine bleiben sollte, funktionieren die Windows-Bordmittel (Rolle Speichermigrationsdienst / Storage Migration Service) wirklich gut!

Hier zum Nachlesen.

Ändert natürlich nichts an den großen Backups und der Ausfallsicherheit.

Der Vorteil ist, dass der Dienst nach dem Kopieren und einrichten der Shares zum Schluss die Kisten umbenennt, die IPs übernimmt und die Daten sogar bei Bedarf immer wieder neu synchronisiert. Du hast also am Zeitpunkt X nur noch eine kurze Downtime der Daten, wo die User nichts mehr machen sollten und die restlichen geänderten Daten übernommen werden. Hat bei uns super geklappt.

DFS sollte aber dennoch das (kurz- bis mittelfristige) Ziel sein.
em-pie
em-pie 29.01.2024 um 16:58:16 Uhr
Goto Top
Moin,

ein DFS ersetzt aber kein HA auf File Ebene, da alles asynchron repliziert wird.

Der Filelevel-Restore sowie der Restore der gesamten VM dauert zu lange um die Vorgaben der GF bezüglich Restore zu erfüllen.
Ich würde die Backup-Lösung überdenken.
Mit Veeam kannst du im DR-Fall auf Daten zugreifen, noch während/ bevor sie aus dem Backup wiederhergestellt werden. Instant Recovery nennt sich bei Veeam der Spaß, gibt es aber auch bei anderen Produkten/ HErstellern.
ITwissen
ITwissen 29.01.2024 um 17:54:13 Uhr
Goto Top
Linux mit Samba.
Da ist alles viel schneller und der monatliche Reboot fällt auch weg.
Uptimes von 1000 Tagen ist bei Linux kein Problem.

Aber ich denke nicht, dass das hier jemand hören will, also ignoriert mein Beitrag einfach.
Aber sagt hinterher nicht: "Warum hat uns das niemand gesagt."
Vision2015
Vision2015 29.01.2024 um 19:37:17 Uhr
Goto Top
Moin...
Zitat von @ITwissen:

Linux mit Samba.
Da ist alles viel schneller und der monatliche Reboot fällt auch weg.
Uptimes von 1000 Tagen ist bei Linux kein Problem.

Aber ich denke nicht, dass das hier jemand hören will, also ignoriert mein Beitrag einfach.
Aber sagt hinterher nicht: "Warum hat uns das niemand gesagt."
was hat das jetzt mit seiner frage zu tun?
frank
Dani
Dani 29.01.2024 um 20:02:13 Uhr
Goto Top
Moin,
Der Filelevel-Restore sowie der Restore der gesamten VM dauert zu lange um die Vorgaben der GF bezüglich Restore zu erfüllen.
wie lange braucht ihr denn aktuell für einen File-Level bzw. Full Instance Restore? Weils 12TB ist eigentlich heute keine Datenmenge mehr. Und was ist die Vorgabe? Ich habe von deiner Beschreibung her das Gefühl, ihr wollt das Problem von eueren lahmen Backup Infrastruktur in die Server Infrastruktur verschieben.

Wir würden nun gerne die Daten Abteilungsbezogen auf einzelne Server verteilen um 1. das Risiko bei einem Ausfall zu minimieren, als auch den Restore zu Beschleunigen.
Wie kann ein Restore bei mehreren Servern schneller sein als bei einem Server? Mal abgesehen vom zusätzlichen Overhead im Vergleich zu einem bzw. zwei Server im WFC mit sich bringt.

Abgesehen davon steht die ganze Firma, wenn der Server Down ist.
Dafür hat der liebe Microsoft Gott den Windows Failover Cluster bzw. DFS-R erfunden. Wobei solch ein Konstrukt ganz neue Herausforderungen mit sich bringt und ich mir nicht sicher bin, ob ihr die Ressourcen und Wissen im Haus habt.


Gruß,
Dani
ITwissen
ITwissen 30.01.2024 um 06:32:11 Uhr
Goto Top
Quote from @Vision2015:

Moin...
Zitat von @ITwissen:

Linux mit Samba.
Da ist alles viel schneller und der monatliche Reboot fällt auch weg.
Uptimes von 1000 Tagen ist bei Linux kein Problem.

Aber ich denke nicht, dass das hier jemand hören will, also ignoriert mein Beitrag einfach.
Aber sagt hinterher nicht: "Warum hat uns das niemand gesagt."
was hat das jetzt mit seiner frage zu tun?
frank

1. Braucht es keine VM
2. Filelevel Restore unnötig, Linux ist in 5 Minuten neu installiert
3. 12TB scheinen bei Windows ein Problem, bei Linux nicht.
4. Verteilte Server unnötig.
5. OS immer up-to-date
usw.

Da wir nicht wissen, was es für Dokumente sind, wäre eventuell sogar ein komplett anderer Ansatz möglich, so in Richtung Dokumentenmanagement System. Da kommts aber auf den Bereich an (ERP, LIMS, ...).

Aber lass uns das hier nicht weiter diskutieren.
Und du hast recht, Linux ist ein komplett anderer Ansatz, da muss man anders denken.
em-pie
em-pie 30.01.2024 aktualisiert um 07:52:27 Uhr
Goto Top
Moin,

1. Braucht es keine VM
Also ist es immer sinnvoller, ein Linux direkt aufs Blech zu installieren?
Ohhh Gott, und ich hab das all die Jahre falsch gemacht, weil ich dachte, dass VMs auch bei Linux basierten Systeme von Vorteil sind. Verdammt, dann muss ich mal schnell noch ein paar Server kaufen…

2. Filelevel Restore unnötig, Linux ist in 5 Minuten neu installiert
Soso.. und die Nutzdaten sind dann direkt mit installiert?
Zertifikate bleiben weiterhin gültig…
Restore des Servers aus dem Backup wäre ja auch Mist..
Eigentlich braucht es ja dann auch kein Backup…

3. 12TB scheinen bei Windows ein Problem, bei Linux nicht.
Und unter Linux hast du die 12TB schneller vom Tape wiedergeholt?

4. Verteilte Server unnötig.
Auch bei Windows…
Aber für ein HA-Konzept brauchst du unter Linux auch > 1 Server

5. OS immer up-to-date
Windows auch. Es muss nur jemand installieren, wie bei einem Linuxface-wink
radiogugu
radiogugu 30.01.2024 um 07:45:29 Uhr
Goto Top
Moin.

@FrageFuerEinenFreund:

Was kommt denn an Server, Storage, Backup Lösung und Switch Archtektur zum Einsatz?

Wie sind die Komponenten miteinander verbunden (LWL, FibreChannel, SAS, iSCSi)?
Welche Geschwindigkeiten sind verfügbar 10G, 25G, 40G oder 100G?

@ITwissen:

Bitte mal die Kommentare von @em-pie beantworten, wir sind gerade in der Bestellung von Blech, damit wir wissen wie viele für unsere Linux Server face-smile

Gruß
Marc
ITwissen
ITwissen 30.01.2024 um 09:43:38 Uhr
Goto Top
Quote from @em-pie:

Moin,

1. Braucht es keine VM
Also ist es immer sinnvoller, ein Linux direkt aufs Blech zu installieren?
Ohhh Gott, und ich hab das all die Jahre falsch gemacht, weil ich dachte, dass VMs auch bei Linux basierten Systeme von Vorteil sind. Verdammt, dann muss ich mal schnell noch ein paar Server kaufen…

2. Filelevel Restore unnötig, Linux ist in 5 Minuten neu installiert
Soso.. und die Nutzdaten sind dann direkt mit installiert?
Zertifikate bleiben weiterhin gültig…
Restore des Servers aus dem Backup wäre ja auch Mist..
Eigentlich braucht es ja dann auch kein Backup…

3. 12TB scheinen bei Windows ein Problem, bei Linux nicht.
Und unter Linux hast du die 12TB schneller vom Tape wiedergeholt?

4. Verteilte Server unnötig.
Auch bei Windows…
Aber für ein HA-Konzept brauchst du unter Linux auch > 1 Server

5. OS immer up-to-date
Windows auch. Es muss nur jemand installieren, wie bei einem Linuxface-wink

1. Ja, hast du.
Warum soll man bei Linux mehrere Server für den gleichen Zweck installieren?
Mit Linux sind VMs aus meiner Sicht überflüssig und steigern nur den Management Aufwand.
Ausser du verkaufst Virtuelle Rechner in einem Cluster.
Aber soweit ich das verstanden habe, geht es hier um ein Fileserver für 12TB.

2. Wenn du die Nutzerdaten auf der gleichen Disk wie das OS hast, kann ich dir nicht mehr helfen.
Ich installiere einen Linux Server (Debian) mittels FAI incl. aller Konfiguration (Zertifikate, welche auch immer) in 5 Minuten.
Wenns sein muss auch 100 Stück gleichzeitig.
Also warum brauche ich ein Backup vom OS?
Zumal ich vom Backup ja im Zweifelsfall nicht weiss, ob es schon "verseucht" ist?

3. Kommt aufs Tape an. Aber üblicherweise ja.

4. HA beinhaltet nicht nur den Server. Auch das Storage, Netzwerk, Strom, ...
Und bei Linux kann ich 10 Server als HA-Backup vorhalten, wenn ich das will (Ja, kann ich bei Windows auch).

5. Ja, Windows kann man bei monatlicher Downtime auch up-to-date halten. Bzw. man wird zur Downtime gezwungen und man weiss nicht, was Microsoft alles macht. Selektiv einzelne Teile updaten? Bei Microsoft unmöglich.
Wenn ich es will, brauche ich mich bei Linux nicht um Updates kümmern. Die werden einfach automatisch installiert. Ja, das geht (für alle Windows Admins, die sich jetzt die Augen reiben).

6. Ja, wenn man einen Linux Fileserver in einer Windows Umgebung benutzen will, braucht es einiges an Hirnschmalz. Da kann man nicht einfach "Next" ... "Next" ... "Next" klicken.
MysticFoxDE
MysticFoxDE 30.01.2024 um 14:05:17 Uhr
Goto Top
Mon Zusammen,

Mach es über DFS-Namespace und robocopy.
+1

Das Übertragen der Daten per robocopy ist auf jeden fall sinnvoll.
+1

robocopy aber bitte mit "/j", dann flutscht es auch um einiges schneller. 😉

Das folgende Tool ist zum Datensynchronisieren auch nicht schlecht und ist beim Kopieren auch recht flott.
https://freefilesync.org/

Gruss Alex
Th0mKa
Th0mKa 30.01.2024 um 14:39:33 Uhr
Goto Top
Quote from @FrageFuerEinenFreund:
Auf einem virtualisierten Fileserver (Windows Server 2012) liegen die Projektverzeichnisse aller Abteilungen, Datenmenge ca. 12TB bei aktivierten Deduplizierung.
Wie gehen wir hier jetzt am besten vor?

Moin,

auf jeden Fall läßt du die Sache mit Robocopy, denn Microsoft sagt bei aktiver Deduplizierung folgendes über Robocopy:
Running Robocopy with Data Deduplication is not recommended because certain Robocopy commands can corrupt the Chunk Store. The Chunk Store is stored in the System Volume Information folder for a volume. If the folder is deleted, the optimized files (reparse points) that are copied from the source volume become corrupted because the data chunks are not copied to the destination volume.

Guck dir stattdessen lieber den Storage Migration Service an.

/Thomas
Boomercringe
Boomercringe 30.01.2024 um 21:30:56 Uhr
Goto Top
Ich halte es für einen falschen Ansatz die Daten auf fünf verschiedene (bare metal?) Fileserver zu verteilen, gerade bei der geringen Datenmenge. Das Ziel ist ja, filelevel restore zu beschleunigen, sowie Ausfallsicherheit zu erhöhen?

Klingt für mich nach nem Job für ne bessere Storage und HA/Backup lösung, evtl. zfs basiert wie TrueNAS oder QTShero