Vorgehen bei Aussortieren von Doppelten Ordner und Dateien so Sinnvoll?
Hallo miteinander,
Wir haben letztens festgestellt, das auf unseren Laufwerken viele Versionen von Ordnern und Dateien rumfliegen und ich wollte da ein bißchen was ausmisten.
Deswegen habe ich mir Free File Sync dafür geholt und Synce manuell gegen einen Referenz Ordner und immer nur die Dateien, die nicht vorhanden sind auf den Referenzordn zu syncen.
Leider berücksichtigt Free File Sync auch die Ordnerstruktur und deswegen habe ich mir überlegt nach den ganzen Sync Vorgängen auch noch die Duplikate zu checken und auszumisten mit dem
Programm DupeGuru.
Macht diese Vorgehen Sinn ?
Habe ich irgendwo einen Denkfehler in meiner Vorgehenweise oder könnte das so klappen.
grüße fireskyer
Wir haben letztens festgestellt, das auf unseren Laufwerken viele Versionen von Ordnern und Dateien rumfliegen und ich wollte da ein bißchen was ausmisten.
Deswegen habe ich mir Free File Sync dafür geholt und Synce manuell gegen einen Referenz Ordner und immer nur die Dateien, die nicht vorhanden sind auf den Referenzordn zu syncen.
Leider berücksichtigt Free File Sync auch die Ordnerstruktur und deswegen habe ich mir überlegt nach den ganzen Sync Vorgängen auch noch die Duplikate zu checken und auszumisten mit dem
Programm DupeGuru.
Macht diese Vorgehen Sinn ?
Habe ich irgendwo einen Denkfehler in meiner Vorgehenweise oder könnte das so klappen.
grüße fireskyer
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 328023
Url: https://administrator.de/contentid/328023
Ausgedruckt am: 22.11.2024 um 22:11 Uhr
3 Kommentare
Neuester Kommentar
Hallo,
Ausmisten kannst Du nur wenn Du nach bestimten Kreterien vorgehst und Datenen die z.B. nach Zeit X nicht geöfnet wurden löschst, Dum nur, wenn die wichtig waren.
Was willst du erreichen? Platz auf dem Server bekommen? Das geht dann über Dedublizierung, dabei werden Dateien die Identisch sind nur einmal auf dem Datenträger vorgehalten. Die sind dan zwar auch X mal in zig Ordnern zu finden, aber es ist ein und die selbe Datei.
Das funktioniert aber nur solange, bis die Daten geändert wird, dann hat man X mal die unveränderte und X mal die geänderte Version.
Im Prinzip muss jede Abteilung ihren Datenbestand ausmisten, wass dann doppelt und dreifach da ist muss halt ermittelt werden (hashtabellen für die Dateien) Und dann in Struktur bringen und am Ende dann dedublizierung (kostet aber Rechenleistung und verursacht bissel mehr IO)
Gruß
Chonta
Habe ich irgendwo einen Denkfehler in meiner Vorgehenweise'
Ein Sync ist ein Sync und da wird die Struktur mitgesynct.Ausmisten kannst Du nur wenn Du nach bestimten Kreterien vorgehst und Datenen die z.B. nach Zeit X nicht geöfnet wurden löschst, Dum nur, wenn die wichtig waren.
Was willst du erreichen? Platz auf dem Server bekommen? Das geht dann über Dedublizierung, dabei werden Dateien die Identisch sind nur einmal auf dem Datenträger vorgehalten. Die sind dan zwar auch X mal in zig Ordnern zu finden, aber es ist ein und die selbe Datei.
Das funktioniert aber nur solange, bis die Daten geändert wird, dann hat man X mal die unveränderte und X mal die geänderte Version.
Im Prinzip muss jede Abteilung ihren Datenbestand ausmisten, wass dann doppelt und dreifach da ist muss halt ermittelt werden (hashtabellen für die Dateien) Und dann in Struktur bringen und am Ende dann dedublizierung (kostet aber Rechenleistung und verursacht bissel mehr IO)
Gruß
Chonta
Auch ganz praktisch, doppelte Files durch Hardlinks ersetzen
Dupes mit anderem Dateinamen finden und in "HardLinks" umwandeln (W2k12R2, NTFS)
Spart Platz und die Leute müssen nicht anfangen zu suchen
Wie immer:Kommt drauf an was gefordert ist und die Struktur und Arbeitsablauf aussehen.
Gruß
Dupes mit anderem Dateinamen finden und in "HardLinks" umwandeln (W2k12R2, NTFS)
Spart Platz und die Leute müssen nicht anfangen zu suchen
Wie immer:Kommt drauf an was gefordert ist und die Struktur und Arbeitsablauf aussehen.
Gruß