Wie kann man sicher sehr kleine Dateien (und viele Verzeichnisse) kopieren?
Viele Computer (Windows XP/7) sind nicht in der Lage, Verzeichnisse mit sehr vielen sehr kleinen Dateien zu kopieren oder ein Tar-Archiv zu entpacken
Hi,
ich muss eine Verzeichnisstruktur auf mehreren Computern verteilen, die aus sehr kleinen Bildern mit vielen Verzeichnissen besteht. Die reine Größe der der Dateien entspricht dabei ca. 250 MB; auf einer NTFS-Partition nimmt das aber 2,5 GB in Anspruch. Das liegt daran, dass die Bilder selbst oft sehr klein sind und diese aber in einer 3-stufigen Ordner-Hierarchie gespeichert werden müssen. Da scheint die Verwaltung mehr Platz zu brauchen, als die Daten selbst. An der Datenstruktur kann ich aber leider nichts ändern.
Mir ist es gelungen mit einem Freeware-Tool (7-Zip) ein Tar dieser Verzeichnisse und Datein auf einem sehr leistungsfähigen Windows-7-Computer zu erzeugen; auf einigen Computern kann ich das Tar auch entpacken -- eigentlich nur ent-taren, da die Dateien ja nicht komprimiert sind --, auf anderen nicht. Windows XP Computer geben manchmal unzureichende Systemrresourcen als Fehlerursache an; die Windows-7-Meldung lautet ähnlich. Auch das Kopieren über den Windowsexplorer schlägt mit ähnlicher Begründung fehl.
Als Tool zum entpacken des Tars habe ich TarTool (http://tartool.codeplex.com) verwendet, auf die mich meine Recherche im Internet gebracht hat. Zwar funktioniert damit das Ent-Taren auf mehr Comnputern, als mit 7-Zip, aber auch nicht auf allen Computern, die diese Daten benötigen.
Hat jemand einen Rat?
Hi,
ich muss eine Verzeichnisstruktur auf mehreren Computern verteilen, die aus sehr kleinen Bildern mit vielen Verzeichnissen besteht. Die reine Größe der der Dateien entspricht dabei ca. 250 MB; auf einer NTFS-Partition nimmt das aber 2,5 GB in Anspruch. Das liegt daran, dass die Bilder selbst oft sehr klein sind und diese aber in einer 3-stufigen Ordner-Hierarchie gespeichert werden müssen. Da scheint die Verwaltung mehr Platz zu brauchen, als die Daten selbst. An der Datenstruktur kann ich aber leider nichts ändern.
Mir ist es gelungen mit einem Freeware-Tool (7-Zip) ein Tar dieser Verzeichnisse und Datein auf einem sehr leistungsfähigen Windows-7-Computer zu erzeugen; auf einigen Computern kann ich das Tar auch entpacken -- eigentlich nur ent-taren, da die Dateien ja nicht komprimiert sind --, auf anderen nicht. Windows XP Computer geben manchmal unzureichende Systemrresourcen als Fehlerursache an; die Windows-7-Meldung lautet ähnlich. Auch das Kopieren über den Windowsexplorer schlägt mit ähnlicher Begründung fehl.
Als Tool zum entpacken des Tars habe ich TarTool (http://tartool.codeplex.com) verwendet, auf die mich meine Recherche im Internet gebracht hat. Zwar funktioniert damit das Ent-Taren auf mehr Comnputern, als mit 7-Zip, aber auch nicht auf allen Computern, die diese Daten benötigen.
Hat jemand einen Rat?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 166185
Url: https://administrator.de/forum/wie-kann-man-sicher-sehr-kleine-dateien-und-viele-verzeichnisse-kopieren-166185.html
Ausgedruckt am: 23.12.2024 um 05:12 Uhr
11 Kommentare
Neuester Kommentar
moin,
7Zip ist doch perfekt...
In meinen früheren Zeiten (als ich noch keine Softwareverteilung hatte), hab ich sfx 7zips auf die Kisten geschickt und die dort entpackt, das waren entpackte 900 MB - 1.3 GB *sick* (Clientsoftware), die ich zu 400 MB zusammengezippt hatte.
Und damals hatten wir W2k0 und XP mit 512 MB Ram.
Gehen tut das, würd ich heute (dank meiner Softwareverteilung) zwar nicht mehr machen - aber in der Not frisst der Teufel Fliegen.
Gruß
7Zip ist doch perfekt...
In meinen früheren Zeiten (als ich noch keine Softwareverteilung hatte), hab ich sfx 7zips auf die Kisten geschickt und die dort entpackt, das waren entpackte 900 MB - 1.3 GB *sick* (Clientsoftware), die ich zu 400 MB zusammengezippt hatte.
Und damals hatten wir W2k0 und XP mit 512 MB Ram.
Gehen tut das, würd ich heute (dank meiner Softwareverteilung) zwar nicht mehr machen - aber in der Not frisst der Teufel Fliegen.
Gruß
- hmmm...
- was läuft denn für ein Virenscanner?
dass die Bilder selbst oft sehr klein sind und diese aber in einer 3-stufigen Ordner-Hierarchie gespeichert
- was passiert, wenn du die 3 Stufige Ordnerhierarchie als Grund nimmst, 3 Zips zu verteilen?
Erlaube mir etwas Kritik und einen anderen Blickwinkel. Ich nehme an, es geht um Zoomify-Bilder. Das kenne ich zur Genüge. Da fällt schon ganz schön was an.
Wenn man den Overhead (Leerplatz) der kleinen Dateien vermeiden will, dann sollte doch die im NTFS eingebaute Komprimierung des Filesystems helfen. Ich bin mir nicht sicher - ich meine aber das arbeitet über Sektoren hinweg. Der Nachteil ist die erhöhte CPU-Last beim Zugriff auf die Dateien, weil sie ja entpackt werden müssen. Da die Bildfiles vermutlich jpg sind (wenn es Zoomify ist), kann man die eigentlichen Daten nicht komprimieren.
Zum Kopieren von so großen Datenmengen hat sich bei mir der DOS-Befehl XCOPY q:\dir1 z:\dir2 /s/e/v sehr gut bewährt. Den kann man nebenbei sehr gut in einem Konsolenfenster laufen lassen und der belastet den Fenster-Manager von Windows mit dem kratteligen Explorer nicht.
Am Ende stellt sich mir die Frage, ob man all diese kleinen Dateien transferieren sollte oder ob man nicht besser einen Netzwerkzugriff über einen Server (oder ein freigegebenes Laufwerk auf einem Client) zur Verfügung stellt. Von den Dateien werden in der Regel ja nur sehr wenige aufgerufen, sonst hätte man sie ja nicht geteilt. Und so ein starker, redundanter Datenpool widerstrebt dem IT-ler in mir. Man stelle sich nur die regelmäßigen Updates vor. brrrr.
justmy2cents
Wenn man den Overhead (Leerplatz) der kleinen Dateien vermeiden will, dann sollte doch die im NTFS eingebaute Komprimierung des Filesystems helfen. Ich bin mir nicht sicher - ich meine aber das arbeitet über Sektoren hinweg. Der Nachteil ist die erhöhte CPU-Last beim Zugriff auf die Dateien, weil sie ja entpackt werden müssen. Da die Bildfiles vermutlich jpg sind (wenn es Zoomify ist), kann man die eigentlichen Daten nicht komprimieren.
Zum Kopieren von so großen Datenmengen hat sich bei mir der DOS-Befehl XCOPY q:\dir1 z:\dir2 /s/e/v sehr gut bewährt. Den kann man nebenbei sehr gut in einem Konsolenfenster laufen lassen und der belastet den Fenster-Manager von Windows mit dem kratteligen Explorer nicht.
Am Ende stellt sich mir die Frage, ob man all diese kleinen Dateien transferieren sollte oder ob man nicht besser einen Netzwerkzugriff über einen Server (oder ein freigegebenes Laufwerk auf einem Client) zur Verfügung stellt. Von den Dateien werden in der Regel ja nur sehr wenige aufgerufen, sonst hätte man sie ja nicht geteilt. Und so ein starker, redundanter Datenpool widerstrebt dem IT-ler in mir. Man stelle sich nur die regelmäßigen Updates vor. brrrr.
justmy2cents
Zitat von @Sisyphusloughs:
Ich kenne Zoomify nicht, aber es ist, nachdem was ich gerade gelesen habe, ein ähnlicher Fall. Hier geht es um
Karten-Ausschnitte, die als Tiles/Kachel als Hintergrundkarte für geographischer Informationssysteme gespeichert werden.
I.d.R. holt man die von einem Server, aber wenn man sie lokal speichert, ist die Anzeige rasend schnell.
Hallo @Sisyphusloughs,Ich kenne Zoomify nicht, aber es ist, nachdem was ich gerade gelesen habe, ein ähnlicher Fall. Hier geht es um
Karten-Ausschnitte, die als Tiles/Kachel als Hintergrundkarte für geographischer Informationssysteme gespeichert werden.
I.d.R. holt man die von einem Server, aber wenn man sie lokal speichert, ist die Anzeige rasend schnell.
Ich kenne dein Problem. Ich arbeite in einem Vermesserunternehmen. Für solche Fälle gibt es eigentlich spezielle ImageServer-Systeme. Solche haben wir auch schon selbst entwickelt. Wie die Bilder bei dir nur wenige Bytes groß sein können, ist mir allerdings unklar. Tiles mit 10x10 Pixel sind für keinen Zweck zu gebrauchen. Wirtschaftlicher wären größere Tiles. Somal diese weniger Speicherplatz-Overhead generieren und die Anwendung auch nicht viel langsamer machen sollten.
Wenn die Daten nicht geändert werden, dann wäre für dich ein kleiner Storage-Server mit einem passenden Filesystem auf einer SSD die absolut bessere Variante. Selbst bei einer mittelgroßen Useranzahl, müsste das System dann noch mit der gewohnten Geschwindigkeit laufen.
Gruß
Snow