Automatischer FTP Download von Dateitypen mit immer anderen Namen
Hallo an Alle!
Folgende Konstellation ist zur Zeit vorhanden:
2 Arbeitsmaschinen jeweils mit Win 7 Pro Computer.
Auf beiden Maschinen werden Schnittdateien in eine Software eingelesen. Die Daten werden von einem FTP abgerufen (immer gleiches Verzeichnis, immer andere Dateinamen, immer gleiche Dateitypen -> .zcc und .pdf).
Bisher ruft Maschine1 mit dem FTPGetter Pro die Daten ab. Anschließend werden die Daten von Maschine1 auf ein NAS (Synology) synchronisiert. Von diesem NAS holt sich Maschine2 wiederum den gesamten Datenbestand ab. Hintergrund ist hier, dass es einmal einen Datencrash gab und die Schnittdateien weg waren. Aktuell liegen die gesichert auf dem NAS (welcher wiederum separat noch gesichert wird) und auf den Maschinen.
Das Ganze muss in naher Zukunft angepasst werden. Entweder muss ein anderes FTP Tool her, welches automatisiert alle 10 Minuten die Daten abruft und auch vom FTP löscht ODER - was mir lieber wäre - wir können das Ganze auf das NAS verlagern:
1) Abruf der Daten vom FTP durch das NAS
2) Synchronisierung der Daten auf Maschine1 und Maschine2
Jetzt muss nämlich Maschine1 immer an sein, da sonst Maschine2 nicht an neue Daten kommt.
Welche Daten auf welcher Maschine verarbeitet werden kann nicht festgelegt werden. Deshalb haben beide Maschinen immer alle Daten (und wird sprechen von Dateien, die gerade mal 3 KB groß sind ;))
Hat da jemand einen Lösungsansatz?
Meine Idee bisher:
Auf der Synology läuft nen Webserver. Dafür schreibe ich ein PHP Script, welches via FTP den Ordner scannt, neue Daten abruft und anschließend nach einem Localcheck auf dem Server löscht.
Das Verzeichnis des Webservers wird als Netzlaufwerk an beiden Maschinen eingebunden.
P. S. Bei der Auswahl des passenden "Forums" fehlt mir irgendwie eine Liste mit Software. Deshalb hatte ich nun meinen Beitrag unter Windows 7 einsortiert.
Folgende Konstellation ist zur Zeit vorhanden:
2 Arbeitsmaschinen jeweils mit Win 7 Pro Computer.
Auf beiden Maschinen werden Schnittdateien in eine Software eingelesen. Die Daten werden von einem FTP abgerufen (immer gleiches Verzeichnis, immer andere Dateinamen, immer gleiche Dateitypen -> .zcc und .pdf).
Bisher ruft Maschine1 mit dem FTPGetter Pro die Daten ab. Anschließend werden die Daten von Maschine1 auf ein NAS (Synology) synchronisiert. Von diesem NAS holt sich Maschine2 wiederum den gesamten Datenbestand ab. Hintergrund ist hier, dass es einmal einen Datencrash gab und die Schnittdateien weg waren. Aktuell liegen die gesichert auf dem NAS (welcher wiederum separat noch gesichert wird) und auf den Maschinen.
Das Ganze muss in naher Zukunft angepasst werden. Entweder muss ein anderes FTP Tool her, welches automatisiert alle 10 Minuten die Daten abruft und auch vom FTP löscht ODER - was mir lieber wäre - wir können das Ganze auf das NAS verlagern:
1) Abruf der Daten vom FTP durch das NAS
2) Synchronisierung der Daten auf Maschine1 und Maschine2
Jetzt muss nämlich Maschine1 immer an sein, da sonst Maschine2 nicht an neue Daten kommt.
Welche Daten auf welcher Maschine verarbeitet werden kann nicht festgelegt werden. Deshalb haben beide Maschinen immer alle Daten (und wird sprechen von Dateien, die gerade mal 3 KB groß sind ;))
Hat da jemand einen Lösungsansatz?
Meine Idee bisher:
Auf der Synology läuft nen Webserver. Dafür schreibe ich ein PHP Script, welches via FTP den Ordner scannt, neue Daten abruft und anschließend nach einem Localcheck auf dem Server löscht.
Das Verzeichnis des Webservers wird als Netzlaufwerk an beiden Maschinen eingebunden.
P. S. Bei der Auswahl des passenden "Forums" fehlt mir irgendwie eine Liste mit Software. Deshalb hatte ich nun meinen Beitrag unter Windows 7 einsortiert.
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 323229
Url: https://administrator.de/contentid/323229
Ausgedruckt am: 22.11.2024 um 06:11 Uhr
9 Kommentare
Neuester Kommentar
Moin,
wie wäre es mit nem Powershell-Skript, anstelle eines neuen Tools?
http://www.thomasmaurer.ch/2010/11/powershell-ftp-upload-and-download/
Grüße,
Tiberius
wie wäre es mit nem Powershell-Skript, anstelle eines neuen Tools?
http://www.thomasmaurer.ch/2010/11/powershell-ftp-upload-and-download/
Grüße,
Tiberius
WinSCP synchronisiert nach Wunsch vollkommen automatisch sobald neue Dateien vorliegen. Richtung lässt sich frei konfigurieren.
Boah, selbe Frage Nr. 1000001
Gruß
Boah, selbe Frage Nr. 1000001
Gruß
Moin,
die Sache scheint mir recht einfach zu sein: Die meißten NAS-Systeme basieren auf irgendeinem Linux. Dort lassen sich normalerweise auch Aufgaben planen (crontab). wget ist auf vielen Systemen auch vorinstalliert oder lässt sich nachinstallieren. Dann ist es nur noch ein Einzeiler und die Daten liegen regelmäßig auf der NAS.
Gruß Krämer
die Sache scheint mir recht einfach zu sein: Die meißten NAS-Systeme basieren auf irgendeinem Linux. Dort lassen sich normalerweise auch Aufgaben planen (crontab). wget ist auf vielen Systemen auch vorinstalliert oder lässt sich nachinstallieren. Dann ist es nur noch ein Einzeiler und die Daten liegen regelmäßig auf der NAS.
wget -b -N -q --directory-prefix=/volume1/user/Funky/ ftp://deinuser:deinpasswort@deinserver/Verzeichnis/*
Gruß Krämer
Hi
Mir haben hier die Poershell funktionen von Colinardo sehr geholfen funktionieren auch mit *.zcc oder was du halt willst.
Gefunden hier Administrator.de FTP Funktionen
Sorry hab grad gesehen du willst das vom NAS aus steuern...
Mir haben hier die Poershell funktionen von Colinardo sehr geholfen funktionieren auch mit *.zcc oder was du halt willst.
Gefunden hier Administrator.de FTP Funktionen
Sorry hab grad gesehen du willst das vom NAS aus steuern...
Naja, dann helfen dir die bekannten Linux-Tools lftp. Die NASe laufen ja heute alle auf Basis von Linux
Zitat von @Funky86:
Das wget stecke ich am Besten in ein Scriptfile, welches der Cron dann z. B. alle 10 Minuten aufruft.
Nur so wird ein Schuh daraus Das wget stecke ich am Besten in ein Scriptfile, welches der Cron dann z. B. alle 10 Minuten aufruft.