Regelmäßiger Download größerer Datenmengen mit Verbindungsabbrüchen
Hallo Zusammen,
wir betreiben mehrere Hostingserver für eine Websoftware. Die Backups der zugrunde liegenden Datenbanken bieten wir unseren Kunden optional per FTP zum Download an. Die Backups können dabei eine Größe von 50 GB und mehr erreichen. Der Download braucht in diesem Fall mehrere Stunden und bricht gerne auch mal zwischendurch ab.
Der Download soll beim Kunden zeit-gesteuert ausgelöst werden. Viel problematischer ist aber, das der Download nach einem Abbruch der Verbindung automatisch wieder aufgenommen werden muss - beispielsweise auch, wenn beim Kunden die Zwangstrennung seines DSL-Anschlusses Verursacher des Abbruchs war.
Eine Übertragung in gepackten Teilarchiven würde zu viel Zeit verbrauchen und die Größe der Datenbanken aufgrund der Inhalte nur unwesentlich reduzieren.
Da die Dateinamen täglich wechseln, müsste außerdem ein ganzer Ordner bewegt werden, ohne die Dateien direkt über Ihren Namen anzusprechen.
Gibt es hierfür Lösungsansätze?
wir betreiben mehrere Hostingserver für eine Websoftware. Die Backups der zugrunde liegenden Datenbanken bieten wir unseren Kunden optional per FTP zum Download an. Die Backups können dabei eine Größe von 50 GB und mehr erreichen. Der Download braucht in diesem Fall mehrere Stunden und bricht gerne auch mal zwischendurch ab.
Der Download soll beim Kunden zeit-gesteuert ausgelöst werden. Viel problematischer ist aber, das der Download nach einem Abbruch der Verbindung automatisch wieder aufgenommen werden muss - beispielsweise auch, wenn beim Kunden die Zwangstrennung seines DSL-Anschlusses Verursacher des Abbruchs war.
Eine Übertragung in gepackten Teilarchiven würde zu viel Zeit verbrauchen und die Größe der Datenbanken aufgrund der Inhalte nur unwesentlich reduzieren.
Da die Dateinamen täglich wechseln, müsste außerdem ein ganzer Ordner bewegt werden, ohne die Dateien direkt über Ihren Namen anzusprechen.
Gibt es hierfür Lösungsansätze?
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 192654
Url: https://administrator.de/forum/regelmaessiger-download-groesserer-datenmengen-mit-verbindungsabbruechen-192654.html
Ausgedruckt am: 22.04.2025 um 02:04 Uhr
6 Kommentare
Neuester Kommentar
Eine Übertragung in gepackten Teilarchiven würde zu viel Zeit verbrauchen und die Größe der Datenbanken
aufgrund der Inhalte nur unwesentlich reduzieren.
Moin
das ist für mich nicht verständlich - wenn Du eine / mehrere Datei(en) mit einem Packprogramm ohne Komprimierung splittest, ist das in ner Minute erledigt - und alles ist genausogroß (bis auf paar Bytes)
Ggf. Sollte auch Euer FTP-Server autoresume können, dann wird bei dem Client auch nur noch der Rest übertragen.
Gruß
24
Moin
50GB am Stück? Üebr was für eine Leitung? Womöglich hängt der Kunde per DSL/VDSL mit wechselnder IP an Netz? Dann braucht er nicht mehrere Stunden, sondern mehrere Tage, selbst wenn er keine automatischen disconnects hat.
mein erster Impuls war es zu sagen:
Verschickt USB-Sticks, die 64GB udn mehr kosten nicht mehr die Welt. Oder gleich eine SSD. Und per Post sind die Daten auf jeden fall schneller angekommen.
Also:
Butter bei die Fische, damit wir unsere Kristallkugeln nicht ausleiern müssen.
lks
PS: Von Downloadmanagern habt Ihr auch noch nichts gehört? Notfall könntet Ihr auch einfach einen privaten torrentserver aufsetzen.
50GB am Stück? Üebr was für eine Leitung? Womöglich hängt der Kunde per DSL/VDSL mit wechselnder IP an Netz? Dann braucht er nicht mehrere Stunden, sondern mehrere Tage, selbst wenn er keine automatischen disconnects hat.
mein erster Impuls war es zu sagen:
Verschickt USB-Sticks, die 64GB udn mehr kosten nicht mehr die Welt. Oder gleich eine SSD. Und per Post sind die Daten auf jeden fall schneller angekommen.
Also:
Butter bei die Fische, damit wir unsere Kristallkugeln nicht ausleiern müssen.
lks
PS: Von Downloadmanagern habt Ihr auch noch nichts gehört? Notfall könntet Ihr auch einfach einen privaten torrentserver aufsetzen.
Einen "wget -c -r" sollte man ohne Probleme in ein Skript packen können.
Torrent fällt leider auch aus, da das Backup aus mehreren Dateien mit täglich wechselnder Benennung besteht. Ein Torrent
kann aber nicht einen ganzen Ordner bereitstellen, sondern nur fest benannte Dateien.
kann aber nicht einen ganzen Ordner bereitstellen, sondern nur fest benannte Dateien.
Na und? Dann kommt halt täglich ein torrent dazu und alte werden entfernt. Mit ein bischen Shell-Skripting ist das doch kein Hexenwerk.
Andere Idee: Gibt es schon Erfahrungen zu rSync o.ä. - Google hat da was erwähnt, aber wir haben hier noch keine
Erfahrungen.
Erfahrungen.
rsync ist das Standard-Programm, mit dem ich Daten snychronisiere. Habe ich bisher mit 50GB-Klöätzen noch nicht probiert aber dvd-Images (bis 9GB) packt das dingens wunderbar.
Abgesehen davon:
Mit split/join kann man wunderbar skriptgeseteuert die Daten kleinhacken und wieder zusammenfügen. dDazu noch ein rsync, das dafür sorgt, daß alles korrekt synchronisiert wird und noch md5sum/sha1sum, um die Korrektheit der Daten zu prüfen. Das sollte innerhalb von einem halben Tag zusammengeschrieben und getestet sein.
lks