Download bzw synchronisation von mehreren datein von einer webseite
Guten morgen,
hintergrund: ich arbeite in einem konzern, welche ein intranetportal anbietet wo updates für ein produkt zur verfügung gestellt werden.
zum problem, leider werden die updates über einen programmclient runtergeladen, was im ersten moment gar kein problem wäre, wenn unsere anbindung an den konzern entsprechend schnell wäre (normale updategröße so um die 200 mb), diese updatesbrauchen 20 rechner, verbindung zum konzern ist eine 2 mbit sdsl leitung, wo noch andere daten drüberlaufen.
im programmclient gibt es jedoch die möglichkeit einen lokalen pfad auszuwählen, wo man zuvor die updates hineinkopiert. (dies funktioniert auch wunderbar)
mein problem ist jetzt der download dieser updatedatein. da ich selber mit diesem programm nicht arbeite, erfahre ich es erst ziemlich spät, dass es hier ein update gegeben hat. jetzt wäre für mich eine idee gewesen, einfach eine synchronisation zwischen dem server und meinem verzeichnis herzustellen, damit die dateien bei mir im verzeichnis immer aktuell sind und die kollegen, welche dieses programm nutzen, die aktuellesten daten haben.
leider habe ich auf den konzernserver keinen ftp zugriff sondern es gibt nur eine weboberfläche, wo ich auf einen link klicken kann um mir die updates runterzuladen. weiß einer von euch wie ich sowas automatisieren kann?
via webdav hab ich schon probiert, funktioniert leider nicht
ich wäre euch sehr dankbar, wenn einer von euch eine idee dazu hätte
grüße ;)
crescent
hintergrund: ich arbeite in einem konzern, welche ein intranetportal anbietet wo updates für ein produkt zur verfügung gestellt werden.
zum problem, leider werden die updates über einen programmclient runtergeladen, was im ersten moment gar kein problem wäre, wenn unsere anbindung an den konzern entsprechend schnell wäre (normale updategröße so um die 200 mb), diese updatesbrauchen 20 rechner, verbindung zum konzern ist eine 2 mbit sdsl leitung, wo noch andere daten drüberlaufen.
im programmclient gibt es jedoch die möglichkeit einen lokalen pfad auszuwählen, wo man zuvor die updates hineinkopiert. (dies funktioniert auch wunderbar)
mein problem ist jetzt der download dieser updatedatein. da ich selber mit diesem programm nicht arbeite, erfahre ich es erst ziemlich spät, dass es hier ein update gegeben hat. jetzt wäre für mich eine idee gewesen, einfach eine synchronisation zwischen dem server und meinem verzeichnis herzustellen, damit die dateien bei mir im verzeichnis immer aktuell sind und die kollegen, welche dieses programm nutzen, die aktuellesten daten haben.
leider habe ich auf den konzernserver keinen ftp zugriff sondern es gibt nur eine weboberfläche, wo ich auf einen link klicken kann um mir die updates runterzuladen. weiß einer von euch wie ich sowas automatisieren kann?
via webdav hab ich schon probiert, funktioniert leider nicht
ich wäre euch sehr dankbar, wenn einer von euch eine idee dazu hätte
grüße ;)
crescent
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 149564
Url: https://administrator.de/contentid/149564
Ausgedruckt am: 25.11.2024 um 11:11 Uhr
3 Kommentare
Neuester Kommentar
Hat die fragliche Datei immer den gleichen Namen? Wahrscheinlich nicht - wäre ja sonst auch zu einfach.
Man kann da aber mit ein bißchen VBScript (oder Batch) und wget aber ganz sicher was machen. Im Prinzip müsste das dann so aussehen:
Schöner und einfacher wäre natürlich, wenn die Konzernadmins ein bißchen mitdenken würden und die neuen Dateien von sich aus zu euch in ein lokales Shares pusten würden. Die wissen ja wahrscheinlich, dass das beschriebene Problem existiert und sollten ein ureigenes Interesse daran haben statt 20*200MB nur 1*200 über die Leitung schicken zu müssen.
Man kann da aber mit ein bißchen VBScript (oder Batch) und wget aber ganz sicher was machen. Im Prinzip müsste das dann so aussehen:
- Webseite per VBS laden und auf Downloadlinks durchsuchen, die dem gesuchten Namen entsprechen
- Prüfen welche der Dateien schon lokal vorhanden sind
- alle anderen Dateien per wget runterladen und lokal speichern
Schöner und einfacher wäre natürlich, wenn die Konzernadmins ein bißchen mitdenken würden und die neuen Dateien von sich aus zu euch in ein lokales Shares pusten würden. Die wissen ja wahrscheinlich, dass das beschriebene Problem existiert und sollten ein ureigenes Interesse daran haben statt 20*200MB nur 1*200 über die Leitung schicken zu müssen.