hushpuppies
Goto Top

Große Dateien übers Internet übertragen - mit welchen Tools?

Ich würde gerne zwischen zwei Standorten hin und wieder relativ große Dateien über das Internet übertragen.
Die Dateien sind sehr groß - 30-50gb keine Seltenheit, teilweise aber 500 oder sogar 800gb am Stück.

Ich suche eine Tool (idealerweise Freeware natürlich), welches
- mit so großen Dateien umgehen kann
- eine Bandbreitenlimitierung (am besten mit Zeitfenstern) unterstützt
- die übertragenen Daten auf Validität überprüft (z.B. durch blockweises übertragen mit Checksummen)
- stabil genug ist um diese extrem langen Übertragungszeiten zu verkraften

Ich habe auch schon diverse Sachen ausprobiert (klassisches FTP, DFS, rsync, ein paar File-Sync-Tools) aber spätestens mit den ganz großen Dateien kommen alle bisher getesteten Varianten nicht wirklich klar (oder ich war zu doof zum einrichten face-smile ).

Kennt da jemand eine Möglichkeit für diese extremen Datenmengen?

Danke schon mal vorab face-smile

Content-ID: 227920

Url: https://administrator.de/contentid/227920

Ausgedruckt am: 23.11.2024 um 09:11 Uhr

Sheogorath
Lösung Sheogorath 28.01.2014 aktualisiert um 10:51:48 Uhr
Goto Top
Moin,

ich weiß ja nicht, was eure Internetleitung her gibt, aber ich schätze eine externe Festplatte mit Hardwareverschlüsselung und der gute alte Paketversand ist vermutlich schneller und einfacher.

Ist vielleicht DIE Lösung aber es ist wahrscheinlich einfacher und schneller als alles über das Netzwerk zu schieben.

Gruß
Chris
AndiEoh
Lösung AndiEoh 28.01.2014 aktualisiert um 10:51:38 Uhr
Goto Top
Hallo,

du hast leider nicht erklärt was denn mit FTP,rsync etc. nicht funktioniert hat. Ich würde vermuten das die schlichte Dauer der TCP Verbindung ein Problem ist, da alle Fehler zwischen euch und dem Ziel zu einem Abbruch führen können. Dieses Problem wirst du nur durch ein Tool lösen können welches eine effiziente Neustart Option bietet. Mein Vorschlag wäre rsync + scripting und folgende Parameter beachten
--bwlimit
--timeout
--compress
--partial
--inplace

Das Scripting wird benötigt um einen Neustart automatisch auszuführen und eine Benachrichtigung am Ende zu verschicken. Ansonsten doch mal die Liefergeschwindigkeit von Festplatten prüfen face-wink

Gruß

Andi
hushpuppies
hushpuppies 28.01.2014 um 09:57:22 Uhr
Goto Top
Zitat von @Sheogorath:

Moin,

ich weiß ja nicht, was eure Internetleitung her gibt, aber ich schätze eine externe Festplatte mit
Hardwareverschlüsselung und der gute alte Paketversand ist vermutlich schneller und einfacher.

Ist vielleicht DIE Lösung aber es ist wahrscheinlich einfacher und schneller als alles über das Netzwerk zu schieben.

Gruß
Chris

Jo das ist Plan B face-smile Das geht natürlich immer...ist aber eben sehr unpraktisch face-smile
hushpuppies
hushpuppies 28.01.2014 um 10:03:45 Uhr
Goto Top
Zitat von @AndiEoh:

Hallo,

du hast leider nicht erklärt was denn mit FTP,rsync etc. nicht funktioniert hat. Ich würde vermuten das die schlichte
Dauer der TCP Verbindung ein Problem ist, da alle Fehler zwischen euch und dem Ziel zu einem Abbruch führen können.
Dieses Problem wirst du nur durch ein Tool lösen können welches eine effiziente Neustart Option bietet. Mein Vorschlag
wäre rsync + scripting und folgende Parameter beachten
--bwlimit
--timeout
--compress
--partial
--inplace

Das Scripting wird benötigt um einen Neustart automatisch auszuführen und eine Benachrichtigung am Ende zu verschicken.
Ansonsten doch mal die Liefergeschwindigkeit von Festplatten prüfen face-wink

Gruß

Andi

mhh also rsync hat bei den "kleineren" Dateien so bis 50gb funktioniert, so wie ich es hatte.

Bei den Riesendateien wurde der Transfer offenbar gestartet, ich habe eine dummy-Datei gesehen aber die wurde dann auch nach Tagen nicht grösser, so dass ich das irgendwann mal abgebrochen habe und nach etlichen solcher Versuche (u.a. mit einem Rsync von ReadyNAS auf ReadyNAS mit dem eingebauten Tool) habe ich es dann aufgegeben und vermutet, dass das einfach zu groß ist.

Ist ja auch zugegebenermaßen etwas extrem solche Mengen durchs Internet zu pumpen face-smile
Snowman25
Lösung Snowman25 28.01.2014 aktualisiert um 10:51:53 Uhr
Goto Top
Zitat von @hushpuppies:

Jo das ist Plan B face-smile Das geht natürlich immer...ist aber eben sehr unpraktisch face-smile

Genau so werden aber auch große Datensätze zwischen Datenzentren ausgetauscht. (Gut, die haben 10G-Anbindung, da sind die "Datensätze" dann im Tera-Petabyte-Bereich).

Ich gehe davon aus, dass an beiden Standorten maximal eine 100Mb/s-Anbindung vorhanden ist? Um die Leitung nicht zu blockieren musst du also auf etwa 50MB/s drosseln. Da dauern 500GB dann schon theoretisch über etwas 11 Stunden. Ausserdem wird es dir nicht möglich sein. Overhead zu vermeiden, weshalb du eher mit 13-14 Stunden rechnen musst.
Das liegt dann aber auch ausserhalb jedes vernünftigen Zeitfensters, da du auf alle Fälle in die Arbeitszeit kommst. Ausser, du machst es am Wochenende.

Nimm lieber den Transporter. Wenn der weg nicht all zu weit ist, kann man ja auch einen Kurier damit beauftragen, dann hast du auch noch eine höhere Datenübertragungsrate.

Gruß,
@Snowman25
hushpuppies
hushpuppies 28.01.2014 um 10:51:18 Uhr
Goto Top
Danke für die Antworten - da wird das wohl auf die Transporter-Methode rauslaufen.
Dachte nur vielleicht gäbs da was geschicktes face-smile
Dirmhirn
Lösung Dirmhirn 28.01.2014 aktualisiert um 11:37:52 Uhr
Goto Top
Hi!

muss das kostenlos sein?
sonst ev. mit einem WAN-Optimizer: WAN Beschleuniger
Kommt halt auch auf die Art der Daten an.

oder per Torrent - sicher nicht die schnellste Methode, aber robust...

sg Dirm
hushpuppies
hushpuppies 28.01.2014 um 11:37:47 Uhr
Goto Top
Zitat von @Dirmhirn:

Hi!

muss das kostenlos sein?
sonst ev. mit einem WAN-Optimizer: WAN Beschleuniger
Kommt halt auch auf die Art der Daten an.

oder per Torrent - sicher nicht die schnellste Methode, aber robust...

sg Dirm

mmmhhh Torrent ist eine gute Idee...Danke! face-smile