Schnelle Robocopy-Alternative gesucht
Hallo!
Ich spiegle jeden Tag die Daten eines Servers (Windows 2016) auf ein anderes System (Windows 2012 R2), um dort alles auf ein Band zu sichern.
--> VSS-Snapshot --> Robocopy Server auf Backup-Maschine
Leider produziert die Anwendung, die die Daten auf dem Server ablegt UNMENGEN Unterordner.
Bisher nutze ich dafür Robocopy, aber der Job läuft inzwischen 6 Stunden für 3 TB Daten. Dabei sind nicht die veränderten Daten, sondern die unveränderten Daten das große Problem. Bei jedem Ordner dauert es lange, bis Robocopy überhaupt merkt, dass nichts zu tun ist.
Könnt ihr mir eine gute Alternative empfehlen, die den Vergleich vielleicht schneller hinbekommt?
Danke und Grüße
Phil
Ich spiegle jeden Tag die Daten eines Servers (Windows 2016) auf ein anderes System (Windows 2012 R2), um dort alles auf ein Band zu sichern.
--> VSS-Snapshot --> Robocopy Server auf Backup-Maschine
Leider produziert die Anwendung, die die Daten auf dem Server ablegt UNMENGEN Unterordner.
Bisher nutze ich dafür Robocopy, aber der Job läuft inzwischen 6 Stunden für 3 TB Daten. Dabei sind nicht die veränderten Daten, sondern die unveränderten Daten das große Problem. Bei jedem Ordner dauert es lange, bis Robocopy überhaupt merkt, dass nichts zu tun ist.
Könnt ihr mir eine gute Alternative empfehlen, die den Vergleich vielleicht schneller hinbekommt?
Danke und Grüße
Phil
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 369536
Url: https://administrator.de/contentid/369536
Ausgedruckt am: 22.11.2024 um 08:11 Uhr
11 Kommentare
Neuester Kommentar
Moin,
Dein Problem ist das auflisten der Verzeichnisse primär remote.
Bei vielen Dateien und Verzeichnissen dauert das recht lange.
Das gilt für SMB, NFS und besonders für FTP.
A) Eine Client-Server-Software
Damit muss der Client nicht mehr jedes Verzeichnis per Remote anfragen, sondern bekommt eine Liste aller Verzeichnisse.
Rsync wäre so ein Kandidat.
B) Der Sync-Client weiß was auf der Serverseite ist und gleicht das nicht vorher ab.
Dann müßte er nur die Änderungen durchführen.
Ist aber auch riskant, da sich damit Abweichungen einschleichen könnten.
Dazu gibt es viele Sync-Clients mit lokaler Datenbank. Einen Namen habe ich leider nicht zur Hand.
C) Eine richtige Backupsoftware
Die erstellt Dir wenige große Dateien, Du bekommst noch ein Protokoll und hast einen Plan für das Desasterrecovery wenn Server A nicht mehr bootet.
Stefan
Dein Problem ist das auflisten der Verzeichnisse primär remote.
Bei vielen Dateien und Verzeichnissen dauert das recht lange.
Das gilt für SMB, NFS und besonders für FTP.
A) Eine Client-Server-Software
Damit muss der Client nicht mehr jedes Verzeichnis per Remote anfragen, sondern bekommt eine Liste aller Verzeichnisse.
Rsync wäre so ein Kandidat.
B) Der Sync-Client weiß was auf der Serverseite ist und gleicht das nicht vorher ab.
Dann müßte er nur die Änderungen durchführen.
Ist aber auch riskant, da sich damit Abweichungen einschleichen könnten.
Dazu gibt es viele Sync-Clients mit lokaler Datenbank. Einen Namen habe ich leider nicht zur Hand.
C) Eine richtige Backupsoftware
Die erstellt Dir wenige große Dateien, Du bekommst noch ein Protokoll und hast einen Plan für das Desasterrecovery wenn Server A nicht mehr bootet.
Stefan
Theoretisch wäre da Veeam geeignet.
Die Geschwindigkeit kann ich da aber nicht einschätzen.
Die Geschwindigkeit kann ich da aber nicht einschätzen.
Schon versucht Robocopy selbst Beine zu machen?
der besitzt einen Multithreaded Parameter:
Dieser läuft mit einem Standardwert von 8 - du kannst ihn aber bis zu 128 hochschrauben - wobei mehr nicht unbedingt besser ist, da man dann viel random I/O Load auf der Platte/Storagesystem erzeugt.
Aber teste mal ein hochsetzen auf z.B. 32 oder so. Kann durchaus die Kopierzeit halbieren.
der besitzt einen Multithreaded Parameter:
/MT
Aber teste mal ein hochsetzen auf z.B. 32 oder so. Kann durchaus die Kopierzeit halbieren.
Hi,
wir hatten mit einem anderen Produkt auch Probleme, sodass die Sicherung 22 Uhr aus der Vornacht sich bis zum nächsten Vormittag hinzog.
Jetzt läuft VEEAM und sichert den Hyper-V (Fileserver und Exchange). Der Gesamtdatenbestand ist 2,7 TB. Gestern wurde für die Differenz 47 GB gelesen und für die Verarbeitung hat das System 57 Minuten benötigt.
Klaus
wir hatten mit einem anderen Produkt auch Probleme, sodass die Sicherung 22 Uhr aus der Vornacht sich bis zum nächsten Vormittag hinzog.
Jetzt läuft VEEAM und sichert den Hyper-V (Fileserver und Exchange). Der Gesamtdatenbestand ist 2,7 TB. Gestern wurde für die Differenz 47 GB gelesen und für die Verarbeitung hat das System 57 Minuten benötigt.
Klaus
wobei mehr nicht unbedingt besser ist
Doch. Besonders bei Differenzkopien macht sich das extrem bemerkbar.Die erste Kopie dauert zwangsläufig länger, weil er alles kopieren muss. Bei nachfolgenen Differenzkopien muss er aber erstmal checken, was sich geändert hat. Und wenn er das in mehreren Threads durchführt (ich mach sowas auch mit 64 und mehr), dann geht dies irre schnell. Man sollte hier bloß ein Log schreiben lassen (ohne Konsolenausgabe), weil das schneller geht, als wenn er aus diesen mehreren Threads auf die Konsole schreiben muss.
Hallo,
vielleicht hilft Dir ViceVersa etwas. Wobei bei den Datenmengen tendiere ich auch zu DFS-R.
Gruss Penny.
vielleicht hilft Dir ViceVersa etwas. Wobei bei den Datenmengen tendiere ich auch zu DFS-R.
Gruss Penny.