jens4ever
Goto Top

Linux: Website-Screenshot via Kommandozeile erstellen

Moin zusammen,

ich habe eine VM auf meinem Heimserver, die div Skriptjobs macht. Ich stelle gerade teils auf Linux um und finde für eine Sache keine Lösung und würde gern mal eure Meinung hören. Vielleicht habt ihr ja einen guten Tipp für mich.

Ich würde gern von Websites einen Screenshot machen via Kommandozeile. Auf meiner Win VM war es bisher so, dass ein Script den IE mit der Seite öffnete, 10 sek wartete bis die Seite fertig geladen war und einen screenshot machte. Das Verfahren ist natürlich etwas fehleranfällig/nervig, Werbung, Seite nicht fertig geladen, Fenster geht auf oder hängt sich auf, etc.

Kenn jemand vielleicht ne Möglichkeit das mit einer Render Engine auf dem Raspberry zu machen, die kein UI hat?

Danke für deinen Tipp.
Jensen

Content-ID: 272848

Url: https://administrator.de/forum/linux-website-screenshot-via-kommandozeile-erstellen-272848.html

Ausgedruckt am: 12.04.2025 um 06:04 Uhr

Jens4ever
Jens4ever 24.05.2015 um 18:12:48 Uhr
Goto Top
Dann doch noch was gefunden: cutycapt

https://www.youtube.com/watch?v=Oy3XjawQjlQ
broecker
broecker 24.05.2015 um 19:50:14 Uhr
Goto Top
Moin,
warum denn Screenshot? - Standardmittel für das "normale" Auslesen einer Website ist wget unter Linux/UNIX,
da kann auch -r -rekursiv, -c wiederholen, bis es klappt, Passworte etc. mitgegeben werden: man wget
Je nach Anwendung vielleicht nützlicher.
HG
Mark
Jens4ever
Jens4ever 27.05.2015 aktualisiert um 14:53:45 Uhr
Goto Top
Ok vielleicht bin ich auf dem falschen Dampfer. Beispiel: Ich habe zu Hause ein Kindle Fire an der Wand und auf meinem Server ne Website mit Live Infos. Z.B. Wetter. Das muss ich ja irgendwo abgreifen und es darf auch noch nett aussehen mit Grafiken.

Wie würdest du auf der Seite http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ... die Wetterdaten abgreifen, wenn nicht mit Screenshot?

Mich interessiert das Wetter von heute (oben link MORGENS bis Stück weiter unten rechts 10 / 10 °C)

Grüße und danke....

PS: Ja ist ein Luxusproblem...
broecker
broecker 27.05.2015 um 16:06:49 Uhr
Goto Top
wget http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...
liefert eine html-Seite zurück: "3_tagesvorhersage/?id=DE0004130",
das kann ein cron z.B. stündlich machen,
die Datei sieht gräßlich CSS/HTML/DIV'ig aus, aber Temperaturen sind darin enthalten - also nicht nur in Bildchen,
welche Zeile man nun braucht und wie man sie ausschneidet? - mit lauter Linux-Basisbefehlen: head, tail, wc, grep - oder eleganter mit sed, awk - das Ergebnis kann man in eine Datenbank hauen oder auch wieder in eine HTML-Seite auf dem Apache includen.
Bestimmt gibt es von Meteorologischen Instituten o.ä. weniger aufgeblasene Infos?
Oder eine mobile Ansicht?
Aber das sei erstmal der Weg.

einfacher wäre als cron
cd /var/www/htdocs/
wget -k -r --level=2 http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...

einfach eine lokale Kopie der Webseite in den Documentroot des Webservers, auf den mit Webclient zugegriffen wird.

HG
Mark
wiesi200
wiesi200 27.05.2015 um 16:32:44 Uhr
Goto Top
Zitat von @Jens4ever:

PS: Ja ist ein Luxusproblem...

Die Luxus Lösung.

Mit PHP die einzeldaten abgreifen. Vielleicht gibt's auch hier bei fertige Schnittstellen und die zu einen neuen eigenen schönen Webseite Parsen und dann auf dem Kindle Darstellen und per JavaScript den Refresh machen.

http://www.php-kurs.info/tutorial-webseiten_auslesen.html