Automatisierte Vorgänge auf einer Webseite
Hallo liebe Community,
wie der Titel schon sagt muss ich einige Vorgänge auf einer Webseite automatisieren.
Details:
Unsere Sekretärin muss für einige unserer LKWs die Maut jeden Abend von der Asfinag - Go Maut Seite herunterladen.
Das heist sie logt sich ein mit den jeweiligen Anmeldedaten für die LKWs klick sich dann im Menü durch, wählt das Kennzeichen aus und das Datum und klickt dann auf Herunterladen.
Die Datei ist eine PDF Datei die sie bekommt.
Meine Aufgabe ist es jetzt das ganze "WENN MÖGLICH" zu automatisieren, so das die PDF-Dateien die Sie benötigt jeden abend um 21:00 automatisch in einem Ordner gespeichert werden.
Mein Problem ist das ich leicht planlos bin wo ich ansetzten soll.
Meine verfügbare Hardware:
Synology NAS (Dauerbetrieb)
Raspery Pi (derzeit nicht in Verwendung)
Windows 10 Dekstop PC - Virtuelle PCs können hier problemlos laufen (derzeit nicht in Verwendung)
Windows 10 Notebook (von unserer Sekretärin)
Die Webseite:
www.go-maut.at
Ich bin euch für jede Idee Dankbar.
Falls ich hier das falsche Thema ausgesucht habe bitte verschieben!
wie der Titel schon sagt muss ich einige Vorgänge auf einer Webseite automatisieren.
Details:
Unsere Sekretärin muss für einige unserer LKWs die Maut jeden Abend von der Asfinag - Go Maut Seite herunterladen.
Das heist sie logt sich ein mit den jeweiligen Anmeldedaten für die LKWs klick sich dann im Menü durch, wählt das Kennzeichen aus und das Datum und klickt dann auf Herunterladen.
Die Datei ist eine PDF Datei die sie bekommt.
Meine Aufgabe ist es jetzt das ganze "WENN MÖGLICH" zu automatisieren, so das die PDF-Dateien die Sie benötigt jeden abend um 21:00 automatisch in einem Ordner gespeichert werden.
Mein Problem ist das ich leicht planlos bin wo ich ansetzten soll.
Meine verfügbare Hardware:
Synology NAS (Dauerbetrieb)
Raspery Pi (derzeit nicht in Verwendung)
Windows 10 Dekstop PC - Virtuelle PCs können hier problemlos laufen (derzeit nicht in Verwendung)
Windows 10 Notebook (von unserer Sekretärin)
Die Webseite:
www.go-maut.at
Ich bin euch für jede Idee Dankbar.
Falls ich hier das falsche Thema ausgesucht habe bitte verschieben!
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 343210
Url: https://administrator.de/contentid/343210
Ausgedruckt am: 14.11.2024 um 11:11 Uhr
8 Kommentare
Neuester Kommentar
Die Screenshots sind zwar schön und gut helfen hier aber leider niemandem. Um dies zu automatisieren wäre ein Zugang zur Seite nötig denn man muss die Quelltexte studieren bzw. per Developer-Tools die Datenübertragung POST/GET mitschneiden um dies vernünftig zu automatisieren.
Bei Bedarf helfe ich da gerne gegen Entgeld.
Für User die dies nicht können gibt's z.B Klicki Bunti
https://www.jitbit.com/macro-recorder/
Gruß
Bei Bedarf helfe ich da gerne gegen Entgeld.
Für User die dies nicht können gibt's z.B Klicki Bunti
https://www.jitbit.com/macro-recorder/
Gruß
Servus,
zwei Denkanstöße in eine andere Richtung:
Lässt sich mit weniger Aufwand ev. eine CSV-Datei mit allen Daten runterladen, die du zur Auswertung durch ein kleines selbstgestricktes Skript/Programm laufen lässt?
Wenn ihr einen langen Atem habt: Vielleicht hätten andere Firmen auch gerne bessere Auswertungen. Den Wunsch zu einem vereinfachten Download immer wieder bei relevanten politischen und politiknahen Stellen platzieren. Immerhin sind im Herbst ja auch Wahlen ;).
Grüße, Stefan
zwei Denkanstöße in eine andere Richtung:
Lässt sich mit weniger Aufwand ev. eine CSV-Datei mit allen Daten runterladen, die du zur Auswertung durch ein kleines selbstgestricktes Skript/Programm laufen lässt?
Wenn ihr einen langen Atem habt: Vielleicht hätten andere Firmen auch gerne bessere Auswertungen. Den Wunsch zu einem vereinfachten Download immer wieder bei relevanten politischen und politiknahen Stellen platzieren. Immerhin sind im Herbst ja auch Wahlen ;).
Grüße, Stefan
Unter Linux gibt es ja auch Webbrowser die unter einer Console laufen. Währe es möglich das mit einem .sh Script einfach zu lösen ?
Das würde nur funktionieren wenn du die nötigen POST/GET Requests anylsierst und dann den Login und Co. direkt mit curl abfackelst. Kommt jedoch gehäuft JavaScript auf der Seite zum Einsatz um Session-IDs etc. zu generieren wirst du damit nicht weit kommen, da das bei diesen Tools nicht interpretiert/geparst wird.Hier musst du dann bei InternetExplorer Automation bleiben oder das Mozilla API verwenden.
Gruß