Robocopy beschleunigen oder Alternative
Moin,
ein KMU-Kunden möchte ein Datenverzeichnis regelmäßig über eine VPN Verbindung zu einem anderen Standort replizieren. Dort soll man lesend auf die Version von gestern zugreifen können.
Es geht um ca. 2 TB mit sehr vielen kleinen Office-Dokumenten. Auf beiden Seiten stehen Windows-Server 2016 mit eigenem AD. Die Leitung hat ca. 200 MBit. Die Latenz liegt bei ca. 30ms.
Der Haustechniker hat dafür eine Batch-Datei mit Robocopy erstellt.
Nun wundert er sich, dass der Vorgang nach 8 Stunden nicht abgeschlossen ist und, dass der reine Abgleich so langsam ist
Das mit den AD-Informationen ist eine längere Geschichte.
Warum es so langsam ist, weiß ich.
Ist die Frage wie man es auf die einfache Art beschleunigen kann.
Oder ob eine der tausenden Sync-Programme das besser hinbekommt.
Wenn man die Dateiliste an SMB vorbei überträgt und die geänderten Datein komprimiert überträgt sollte es schneller sein.
Unter Linux würde ich RSync verwenden.
Anforderung
- Skripte für Windows Server 2016
oder
- Software für Windows Server 2016
- Übertragen von 2TB kleinen Office Dokumenten one way
- Übertragen nur der geänderten Dateien
- Übertragen der Berechtigungen
Stefan
ein KMU-Kunden möchte ein Datenverzeichnis regelmäßig über eine VPN Verbindung zu einem anderen Standort replizieren. Dort soll man lesend auf die Version von gestern zugreifen können.
Es geht um ca. 2 TB mit sehr vielen kleinen Office-Dokumenten. Auf beiden Seiten stehen Windows-Server 2016 mit eigenem AD. Die Leitung hat ca. 200 MBit. Die Latenz liegt bei ca. 30ms.
Der Haustechniker hat dafür eine Batch-Datei mit Robocopy erstellt.
robocopy /MIR /B /R:1 /W:1 /COPYALL quelle ziel
Das mit den AD-Informationen ist eine längere Geschichte.
Warum es so langsam ist, weiß ich.
Ist die Frage wie man es auf die einfache Art beschleunigen kann.
Oder ob eine der tausenden Sync-Programme das besser hinbekommt.
Wenn man die Dateiliste an SMB vorbei überträgt und die geänderten Datein komprimiert überträgt sollte es schneller sein.
Unter Linux würde ich RSync verwenden.
Anforderung
- Skripte für Windows Server 2016
oder
- Software für Windows Server 2016
- Übertragen von 2TB kleinen Office Dokumenten one way
- Übertragen nur der geänderten Dateien
- Übertragen der Berechtigungen
Stefan
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 91188512706
Url: https://administrator.de/contentid/91188512706
Ausgedruckt am: 18.12.2024 um 01:12 Uhr
49 Kommentare
Neuester Kommentar
Moin @StefanKittel,
da fehlt ja auch ein "/j", denn damit flutscht es schon um einiges schneller.
Sprich ...
Und wenn du auf den Servern noch das folgende ausführst ...
(PowerShell als Administrator)
... dann flutschen die SMB Zugriffe über die entsprechenden Server generell etwas besser. 😉
Gruss Alex
Der Haustechniker hat dafür eine Batch-Datei mit Robocopy erstellt.
Nun wundert er sich, dass der Vorgang nach 8 Stunden nicht abgeschlossen ist und, dass der reine Abgleich so langsam ist
robocopy /MIR /B /R:1 /W:1 /COPYALL quelle ziel
da fehlt ja auch ein "/j", denn damit flutscht es schon um einiges schneller.
Sprich ...
robocopy /MIR /B /R:1 /W:1 /j /COPYALL quelle ziel
Und wenn du auf den Servern noch das folgende ausführst ...
(PowerShell als Administrator)
Set-SmbServerConfiguration -TreatHostAsStableStorage $true -AsynchronousCredits 2048
Gruss Alex
Moin @Penny.Cilin,
der bringt meiner Erfahrung nach, auch eine ganze menge bei kleineren Dateien.
Einfach mal ausprobieren, dann sieht man den Unterschied ja sofort.
Gruss Alex
Der Parameter bringt aber nur bei großen Dateien etwas.
Hier geht es um sehr viele kleine Office Dateien.
Hier geht es um sehr viele kleine Office Dateien.
der bringt meiner Erfahrung nach, auch eine ganze menge bei kleineren Dateien.
Einfach mal ausprobieren, dann sieht man den Unterschied ja sofort.
Gruss Alex
Hi
Da du ja über WAN kopierst wie sieht es bzgl MTU aus ? Ist die durchgängig 1500 oder wird fragmentiert ?
Probier mal mit dem Schalter /ipg: die Größe zu beeinflussen auf die eurer WAN Verbindung inkl. Abzug overhead gestellt ist.
Werden den die 200 Mbit auch ausgelastet?
Wie schnell ist den die Gegenseite bzgl lese / Schreibrate?
Und das AD auf der Gegenseite ist eine replication des ADs oder ist es ein eigenes ?
Wenn eigenes AD mit eigenen NTFS Berechtigungen dann ist Copyall vermutlich die Bremse ? Begrenz das mal auf /copy:DAT und auch für Ordner /dcopy:DAT
Weil woher soll die Gegenseite die SIDs kennen und durch die Vererbung wird das ja wieder überschrieben und er muss jede Datei beim erneuten kopieren erneut anfassen.
Mit freundlichen Grüßen Nemesis
Da du ja über WAN kopierst wie sieht es bzgl MTU aus ? Ist die durchgängig 1500 oder wird fragmentiert ?
Probier mal mit dem Schalter /ipg: die Größe zu beeinflussen auf die eurer WAN Verbindung inkl. Abzug overhead gestellt ist.
Werden den die 200 Mbit auch ausgelastet?
Wie schnell ist den die Gegenseite bzgl lese / Schreibrate?
Und das AD auf der Gegenseite ist eine replication des ADs oder ist es ein eigenes ?
Wenn eigenes AD mit eigenen NTFS Berechtigungen dann ist Copyall vermutlich die Bremse ? Begrenz das mal auf /copy:DAT und auch für Ordner /dcopy:DAT
Weil woher soll die Gegenseite die SIDs kennen und durch die Vererbung wird das ja wieder überschrieben und er muss jede Datei beim erneuten kopieren erneut anfassen.
Mit freundlichen Grüßen Nemesis
Würde da wie @Looser27 sagte auf Sync Software gehen.
Alternativ PS Script, das vorher Hashsummen generiert. Nur geänderte Dateien in einen tar oder ZIP Ball packt.
Unzip ist PS native. Hashummen zum Verifizieren, dass alles angekommen ist. Neue Dateien sieht man ja auf dem Quellserver anhand des LastWriteDates - Tagesdatum.
Liste mit PS erstellen ist also recht simpel. Kleine Dateien sind immer schon ein Show-Stopper gewesen.
Gelöschte Dateien sind oben nicht mit berücksichtigt. Man könnte einfach eine Dateien Liste mitgeben und dann alles löschen was nicht mit drin steht.
2 TB ist natürlich ein Brett. Wegen den ganzen Kleinkram. Erstellen der ZIP und Content Listen dauert eine Zeit. Da würde ich ggf. erst einmal freefilesync den Vorzug geben.
mfg Crusher
Alternativ PS Script, das vorher Hashsummen generiert. Nur geänderte Dateien in einen tar oder ZIP Ball packt.
Unzip ist PS native. Hashummen zum Verifizieren, dass alles angekommen ist. Neue Dateien sieht man ja auf dem Quellserver anhand des LastWriteDates - Tagesdatum.
Liste mit PS erstellen ist also recht simpel. Kleine Dateien sind immer schon ein Show-Stopper gewesen.
Gelöschte Dateien sind oben nicht mit berücksichtigt. Man könnte einfach eine Dateien Liste mitgeben und dann alles löschen was nicht mit drin steht.
2 TB ist natürlich ein Brett. Wegen den ganzen Kleinkram. Erstellen der ZIP und Content Listen dauert eine Zeit. Da würde ich ggf. erst einmal freefilesync den Vorzug geben.
mfg Crusher
https://superuser.com/questions/1660962/windows-10-fastest-way-to-move-m ...
Das ist aber alles so ähnlich wie deine Version. Mir fiel hier nur eines auf:
Multithreading sorgt halt für parallel Kopie der kleinen Dateien.
Ich hatte es nur mal übertrieben und damit meinen PC abgeschossne. Schon arg lang her. Denke aber mit 10 - 20 parallelen Vorgängen sollte es gehen.
Du kannst dich ja heran tasten.
Das ist aber alles so ähnlich wie deine Version. Mir fiel hier nur eines auf:
/MT:10
Multithreading sorgt halt für parallel Kopie der kleinen Dateien.
Ich hatte es nur mal übertrieben und damit meinen PC abgeschossne. Schon arg lang her. Denke aber mit 10 - 20 parallelen Vorgängen sollte es gehen.
Du kannst dich ja heran tasten.
robocopy /E quelle ziel /MIR /B /R:1 /W:1 /COPYALL /MT::10
Wenn sich eh nur eine Seite ändert würde sich auch das Archiv-Attribut und der Parameter /m anbieten, dann entfiele das aufwendige Enumerieren der Remote-Seite was bei SMB und der Latenz doch einige Zeit kostet. Aber das Erhöhen der Threads sollte auf jeden Fall für den Kopiervorgang einiges bringen wenn es viele kleine Dateien sind die sich ändern.
SyncBackPro z.B. lässt sich diesbezüglich auch sehr fein einstellen wie gesynct wird und hat auch einen Quick-Mode ohne die Remote-Seite scannen zu müssen wenn sich nur eine Seite ändert.
SyncBackPro z.B. lässt sich diesbezüglich auch sehr fein einstellen wie gesynct wird und hat auch einen Quick-Mode ohne die Remote-Seite scannen zu müssen wenn sich nur eine Seite ändert.
Moin Stefan,
ich bringe dann mal noch bvckup2 ins Spiel, das nutze ich bevorzugt für Remote-Verbindungen, wenn Source=Windows. Macht Deltacopy, multi-threading, ist sehr schnell (der Entwickler bemüht sich sehr, sozusagen auch noch das kleinste Quentchen Geschwindigkeit herauszuquetschen), und kann in der Regel den Abgleich dadurch massiv beschleunigen, dass lokal an der Quelle ein Cache mit dem Inhalt des Ziels vorgehalten wird (Metadaten). Da ja vermutlich der Abgleich das Problem ist, und weniger die Menge der geänderten Daten, würde ich das einfach mal in der Testversion für 2 Wochen laufen lassen.
Habe das im Einsatz bei hunderttausenden Dateien an der Quelle, mit wirklich guter Performance, bisher keine schnellere Lösung gefunden.
Gruß
DivideByZero
ich bringe dann mal noch bvckup2 ins Spiel, das nutze ich bevorzugt für Remote-Verbindungen, wenn Source=Windows. Macht Deltacopy, multi-threading, ist sehr schnell (der Entwickler bemüht sich sehr, sozusagen auch noch das kleinste Quentchen Geschwindigkeit herauszuquetschen), und kann in der Regel den Abgleich dadurch massiv beschleunigen, dass lokal an der Quelle ein Cache mit dem Inhalt des Ziels vorgehalten wird (Metadaten). Da ja vermutlich der Abgleich das Problem ist, und weniger die Menge der geänderten Daten, würde ich das einfach mal in der Testversion für 2 Wochen laufen lassen.
Habe das im Einsatz bei hunderttausenden Dateien an der Quelle, mit wirklich guter Performance, bisher keine schnellere Lösung gefunden.
Gruß
DivideByZero
Unter Windows auch. Entweder per WSL oder direkt nativ.
lks
Zitat von @Avoton:
Multithreading sorgt halt für parallel Kopie der kleinen Dateien.
Deswegen habe ich das ja auch oben vorgeschlagen ;)ups. 1. Antwort verschluckt
32 geht glaub ich auch noch. Ich hab mir mal mit 100 oder so Rechner abgeschossen. Netzwerk war tot. War noch zu Windows 7 Zeiten.
Gabs da eig. Empfehlungen zum max?
Moin @StefanKittel,
wenn der Parameter /j nicht viel gebracht hat und du mit 128 Threads, was dem 16fachen des Standardwerts entspricht nur die doppelte Performance hinbekommst, dann hängt meiner Ansicht nach eher etwas auf der Storageseite.
Wie viele Kerne haben den die entsprechenden Server?
Gruss Alex
das mit "/j" hat quasi nichts gebracht.
128 Threads haben die Geschwindigkeit mehr als verdoppel.
128 Threads haben die Geschwindigkeit mehr als verdoppel.
wenn der Parameter /j nicht viel gebracht hat und du mit 128 Threads, was dem 16fachen des Standardwerts entspricht nur die doppelte Performance hinbekommst, dann hängt meiner Ansicht nach eher etwas auf der Storageseite.
Wie viele Kerne haben den die entsprechenden Server?
Gruss Alex
Moin @Lochkartenstanzer,
Unter Windows auch. Entweder per WSL oder direkt nativ.
👍👍👍
RSync könnte sogar um einiges schneller flutschen wie Robocopy, da es bei veränderten Dateien nur die Änderung überträgt.
Gruss Alex
Unter Linux würde ich RSync verwenden.
Unter Windows auch. Entweder per WSL oder direkt nativ.
👍👍👍
RSync könnte sogar um einiges schneller flutschen wie Robocopy, da es bei veränderten Dateien nur die Änderung überträgt.
Gruss Alex
Wieso kopierst du eigentlich alle Dateieigenschaften (COPYALL), wenn die User anschließend nur lesend darauf zugreifen dürfen?
COPYALL kopiert auch alle Berechtigungseinstellungen der Dateien.
Noch eine Frage: Von welcher Seite aus wird denn robocopy angestoßen, von der Quelle oder vom Ziel?
COPYALL kopiert auch alle Berechtigungseinstellungen der Dateien.
Noch eine Frage: Von welcher Seite aus wird denn robocopy angestoßen, von der Quelle oder vom Ziel?
Moin @StefanKittel
für deinen Datenabgleich per Internetleitung gäbe es wohl mehrere Möglichkeiten, die auch genannt wurden:
Schließlich würde ich wegen der schieren Masse an Daten mehr darüber nachdenken, ob nicht große Teile des Datenabgleichs umgangen werden können, weil es eben unveränderliche Datenbereiche sind. Diese gilt es halt zu separieren und vom Abgleich auszuschließen. Auf diese weise liesse ich wohl die meiste Zeit sparen.
Eine schnellere Leitungsverbindung würde vermutlich kaum etwas bringen, da wie gesagt sehr viele kleine Dateien dem entgegenstehen.
Hier und da empfehle ich inzwischen, unveränderliche Datenbereiche in „Archiv“-Bereiche zu unterteilen/abzutrennen und als ISO-Dateien read only zusammenzuführen.
für deinen Datenabgleich per Internetleitung gäbe es wohl mehrere Möglichkeiten, die auch genannt wurden:
- DFS-Replikation (bedingt, dass alle Server im selben AD sind, ist aber auch wegen der großen Anzahl der Dateien auch mal überfordert)
- robocopy (dauert sehr lange weil es eben sehr viele Daten sind)
- rsync (der Klassiker für solche aufgaben, dauert aber eben auch lange, weil es sehr viele Daten sind)
Schließlich würde ich wegen der schieren Masse an Daten mehr darüber nachdenken, ob nicht große Teile des Datenabgleichs umgangen werden können, weil es eben unveränderliche Datenbereiche sind. Diese gilt es halt zu separieren und vom Abgleich auszuschließen. Auf diese weise liesse ich wohl die meiste Zeit sparen.
Eine schnellere Leitungsverbindung würde vermutlich kaum etwas bringen, da wie gesagt sehr viele kleine Dateien dem entgegenstehen.
Hier und da empfehle ich inzwischen, unveränderliche Datenbereiche in „Archiv“-Bereiche zu unterteilen/abzutrennen und als ISO-Dateien read only zusammenzuführen.
Moin @StefanKittel,
Ist das ein HDD RAID, wenn ja welches ist es und wie viele Platten hat dieses ?
Ist es ein Software- oder Hardware-RAID?
Wenn Hardware-RAID, ist auf dem Controller/LUN eventuell "Read Ahead" aktiviert?
Wenn ja, dann schalte das mal aus, das ist in deinem Fall glaube ich nicht wirklich hilfreich.
Gruss Alex
die Gegenstelle ist ein Datengrab mit einem SATA RAID5 aber genug CPU Kernen.
Ist das ein HDD RAID, wenn ja welches ist es und wie viele Platten hat dieses ?
Ist es ein Software- oder Hardware-RAID?
Wenn Hardware-RAID, ist auf dem Controller/LUN eventuell "Read Ahead" aktiviert?
Wenn ja, dann schalte das mal aus, das ist in deinem Fall glaube ich nicht wirklich hilfreich.
Gruss Alex
Moin,
Kurz nochmal zu dem Protokoll über das synchronisiert wird.
Solange man über shares synchronisiert. d.h smb cifs oder sonstwas, hat man das Problem, daß die sync-Programm die daten über die leitung ziehen müssen, um zu vergleichen, sofern man nicht nur über Medtadaten (Filegröße oder Datum) die Kriterien festlegt.
Daher sollten man z.B. auch rsync nicht direkt über die Shares synchronisieren lassen, sondern eher direkt über rsync-Protokoll oder einen sshtunnel, so daß auf beiden seiten die passenden Sync-prozesse laufen und die Daten erstmal nur lokal gelesen werden können statt über die Leitung. Das hllft die menge an daten minimal zu halten und die lokalen rsync-prozesse können die lokalen Filesystem auch deutlich schneller druchlaufen als über ein netzwerk-Filing-Protokoll wie cifs, AFP NFS & Co.
Ich würde da einen ssh oder rsync-Server auf dem Ziel aufsetzen und damit alles syncronisieren..
lks
Kurz nochmal zu dem Protokoll über das synchronisiert wird.
Solange man über shares synchronisiert. d.h smb cifs oder sonstwas, hat man das Problem, daß die sync-Programm die daten über die leitung ziehen müssen, um zu vergleichen, sofern man nicht nur über Medtadaten (Filegröße oder Datum) die Kriterien festlegt.
Daher sollten man z.B. auch rsync nicht direkt über die Shares synchronisieren lassen, sondern eher direkt über rsync-Protokoll oder einen sshtunnel, so daß auf beiden seiten die passenden Sync-prozesse laufen und die Daten erstmal nur lokal gelesen werden können statt über die Leitung. Das hllft die menge an daten minimal zu halten und die lokalen rsync-prozesse können die lokalen Filesystem auch deutlich schneller druchlaufen als über ein netzwerk-Filing-Protokoll wie cifs, AFP NFS & Co.
Ich würde da einen ssh oder rsync-Server auf dem Ziel aufsetzen und damit alles syncronisieren..
lks
Zitat von @StefanKittel:
Man bräuchte eine aktive Software auf Client- und Serverseite die das beschleunigt und sicher abgleichen kann.
Man bräuchte eine aktive Software auf Client- und Serverseite die das beschleunigt und sicher abgleichen kann.
Du meinst rsync/rsyncd!
lks
@StefanKittel
das nennt sich DeltaCopy.
https://www.heise.de/download/product/deltacopy-62565
Kann direkt in Verbindung mit den Linux-Versionen oder mit SYNOLOGY oder QNap oder...... Verbindung aufnehmen.
Kreuzberger
Zitat von @StefanKittel:
Mir fehlt hier eine native Windows-Anbindung. Nicht eine Portierung von Jemanden irgendwo im Web.
Und der Umweg über das Linux-Dings ist auch nicht so mein Fall.
Also sollte Jemand eine native Windows-Portierung erstellen und als eigenständiges Produkt vermarkten.
Stefan
Und der Umweg über das Linux-Dings ist auch nicht so mein Fall.
Also sollte Jemand eine native Windows-Portierung erstellen und als eigenständiges Produkt vermarkten.
Stefan
das nennt sich DeltaCopy.
https://www.heise.de/download/product/deltacopy-62565
Kann direkt in Verbindung mit den Linux-Versionen oder mit SYNOLOGY oder QNap oder...... Verbindung aufnehmen.
Kreuzberger
Hi
https://web.synametrics.com/syncrifyvsdeltacopy.htm
Vielleicht das hier?
Mit freundlichen Grüßen Nemesis
https://web.synametrics.com/syncrifyvsdeltacopy.htm
Vielleicht das hier?
Mit freundlichen Grüßen Nemesis
@StefanKittel
ich hatte es mal auf Server 2012R2 und Server 2016 installiert, es funktionierte darauf.
Kreuzberger
ich hatte es mal auf Server 2012R2 und Server 2016 installiert, es funktionierte darauf.
Kreuzberger
Zitat von @StefanKittel:
Bei sehr vielen kleinen Dateien ist der Zeitaufwand um den Unterschied festzustellen ein massiver Zeitfaktor.
Teilweise 4 Stunden nur um einen Abgleich zu erstellen. Da helfen solche Tools wie bvckup2 die das nur lokal ausführen. Mit dem Risiko, dass es schiefgeht.
Bei sehr vielen kleinen Dateien ist der Zeitaufwand um den Unterschied festzustellen ein massiver Zeitfaktor.
Teilweise 4 Stunden nur um einen Abgleich zu erstellen. Da helfen solche Tools wie bvckup2 die das nur lokal ausführen. Mit dem Risiko, dass es schiefgeht.
Hast Du denn bvckup2 einmal im Vergleich laufen lassen? Zum einen interessiert es mich, zum anderen kann ich das Risiko, von dem Du sprichts, nicht nachvollziehen. bvckup2 arbeitet, wie ich schon sagte, in verschiedenen Installationen seit Jahren fehlerfrei.
Gruß
DivideByZero
Zitat von @StefanKittel:
Jede Form von Delta-Kopie bringt das prinzipbedingte Risiko mit sich, dass das Original und die Kopie mit der Zeit auseinanderlaufen. Irgendein Bit was irgendwo mal, aus welchem Grund auch immer, verloren geht. Oder eine Datei die aus unbekannten Grund auf der Serverseite gelöscht wird.
Jede Form von Delta-Kopie bringt das prinzipbedingte Risiko mit sich, dass das Original und die Kopie mit der Zeit auseinanderlaufen. Irgendein Bit was irgendwo mal, aus welchem Grund auch immer, verloren geht. Oder eine Datei die aus unbekannten Grund auf der Serverseite gelöscht wird.
Es könnte natürlich auch sein, dass verbaute SSDs sich plötzlich schneller drehen.
Kreuberger
Zitat von @StefanKittel:
bis jetzt nicht.
Jede Form von Delta-Kopie bringt das prinzipbedingte Risiko mit sich, dass das Original und die Kopie mit der Zeit auseinanderlaufen. Irgendein Bit was irgendwo mal, aus welchem Grund auch immer, verloren geht. Oder eine Datei die aus unbekannten Grund auf der Serverseite gelöscht wird.
bis jetzt nicht.
Jede Form von Delta-Kopie bringt das prinzipbedingte Risiko mit sich, dass das Original und die Kopie mit der Zeit auseinanderlaufen. Irgendein Bit was irgendwo mal, aus welchem Grund auch immer, verloren geht. Oder eine Datei die aus unbekannten Grund auf der Serverseite gelöscht wird.
Natürlich, aber solche Fälle, die im Übrigen auch bei normalen Backups Thema sind (z.B. Bit Rot), können in der Regel durch regelmäßiges Überprüfen und Hashen abgefangen werden. Bvckup2 macht im Rahmen von Delta Copy genau das: Erläuterung Delta Copying - andere Programme gehen da ähnlich vor, wenn sie das Thema berücksichtigen. Aber wenn solche Mechanismen zum Einsatz kommen, sehe ich das "prinzipbedingte" Risiko nicht, da es dafür eine Lösung gibt.
Und Dateien, die auf der Serverseite einfach so gelöscht werden, sind wohl gänzlich programmunabhängig ein Problem...
Gruß
DivideByZero
@StefanKittel
ggf. siehst du die die Optionen von rsync mal an und probierst es aus. Was du da erreichen magst ist faktisch das zentrale, eigentliche, wofür rsync gemacht wurde und auch allgemein anerkannt perfekt funktioniert.
https://wiki.ubuntuusers.de/rsync/
Siehe option -c
"aktiviert einen Dateivergleich, basierend auf Prüfsumme und nicht auf Größe und Zeitstempel. Die eigentliche Prüfsummenbildung dauert deutlich länger als der Vergleich Größe und Änderungs-Zeitstempel; andererseits werden überflüssige Kopiervorgänge (z.B. bei nur geänderter Änderungszeit) vermieden.“
Die Optionen/Parameter/Schalter werden soweit ich mich recht erinnere von allen Varianten (DeltaCopy, Linux, Unix, Apple etc) unterstützt, das rsync-Protokoll ebenfalls. Eben genau dieser Umstand ist es ja, der dich von Herstellern wie SYNOLOGY unabhängig macht und du alles mögliche mischen kannst.
Anleitungen und weitere Beschreibungen zu rsync findest du massenweise im Internet.
Kreuzberger
ggf. siehst du die die Optionen von rsync mal an und probierst es aus. Was du da erreichen magst ist faktisch das zentrale, eigentliche, wofür rsync gemacht wurde und auch allgemein anerkannt perfekt funktioniert.
https://wiki.ubuntuusers.de/rsync/
Siehe option -c
"aktiviert einen Dateivergleich, basierend auf Prüfsumme und nicht auf Größe und Zeitstempel. Die eigentliche Prüfsummenbildung dauert deutlich länger als der Vergleich Größe und Änderungs-Zeitstempel; andererseits werden überflüssige Kopiervorgänge (z.B. bei nur geänderter Änderungszeit) vermieden.“
Die Optionen/Parameter/Schalter werden soweit ich mich recht erinnere von allen Varianten (DeltaCopy, Linux, Unix, Apple etc) unterstützt, das rsync-Protokoll ebenfalls. Eben genau dieser Umstand ist es ja, der dich von Herstellern wie SYNOLOGY unabhängig macht und du alles mögliche mischen kannst.
Anleitungen und weitere Beschreibungen zu rsync findest du massenweise im Internet.
Kreuzberger
dass auf einmal ein 10 Jahre altes Bild, inmitten von tausenden, defekt war.
Wenn dir das originale Bild kaputt geht, ist das Backup einen Tag später auch hin, wenn delta-copy-Algorithmen (statt Größe/Datum) genutzt werden. Geht aber die Kopie kaputt, ist diese einen Tag später (mit delta) wieder aktuell.
Alles hat Vor- und Nachteile.
Servus,
ich hatte dasselbe Problem mit robocopy und habe mir mit der Option "/MAXAGE:1" geholfen. Erfasse also nur Files des letzten Tages. Das ist bei den zu synchronisierenden 600 GB in wenigen Sekunden erledigt.
Am Wochenende wird dann der Job ohne MAXAGE und mit PURGE gestartet. Das dauert dann aber auch nicht allzu lange.
Außerdem läuft die Synchronisation während der Produktivzeit ständig mit den Monitoring-Optionen "/MON:10 /MOT:28".
Erstere schaut auf die Anzahl an Änderungen und startet den Sync erst nach 10. Die 2. ist die Zeit in Minuten, nach welcher frühestens wieder synchronisiert wird.
Grüße
ich hatte dasselbe Problem mit robocopy und habe mir mit der Option "/MAXAGE:1" geholfen. Erfasse also nur Files des letzten Tages. Das ist bei den zu synchronisierenden 600 GB in wenigen Sekunden erledigt.
Am Wochenende wird dann der Job ohne MAXAGE und mit PURGE gestartet. Das dauert dann aber auch nicht allzu lange.
Außerdem läuft die Synchronisation während der Produktivzeit ständig mit den Monitoring-Optionen "/MON:10 /MOT:28".
Erstere schaut auf die Anzahl an Änderungen und startet den Sync erst nach 10. Die 2. ist die Zeit in Minuten, nach welcher frühestens wieder synchronisiert wird.
Grüße