Linux: Website-Screenshot via Kommandozeile erstellen
Moin zusammen,
ich habe eine VM auf meinem Heimserver, die div Skriptjobs macht. Ich stelle gerade teils auf Linux um und finde für eine Sache keine Lösung und würde gern mal eure Meinung hören. Vielleicht habt ihr ja einen guten Tipp für mich.
Ich würde gern von Websites einen Screenshot machen via Kommandozeile. Auf meiner Win VM war es bisher so, dass ein Script den IE mit der Seite öffnete, 10 sek wartete bis die Seite fertig geladen war und einen screenshot machte. Das Verfahren ist natürlich etwas fehleranfällig/nervig, Werbung, Seite nicht fertig geladen, Fenster geht auf oder hängt sich auf, etc.
Kenn jemand vielleicht ne Möglichkeit das mit einer Render Engine auf dem Raspberry zu machen, die kein UI hat?
Danke für deinen Tipp.
Jensen
ich habe eine VM auf meinem Heimserver, die div Skriptjobs macht. Ich stelle gerade teils auf Linux um und finde für eine Sache keine Lösung und würde gern mal eure Meinung hören. Vielleicht habt ihr ja einen guten Tipp für mich.
Ich würde gern von Websites einen Screenshot machen via Kommandozeile. Auf meiner Win VM war es bisher so, dass ein Script den IE mit der Seite öffnete, 10 sek wartete bis die Seite fertig geladen war und einen screenshot machte. Das Verfahren ist natürlich etwas fehleranfällig/nervig, Werbung, Seite nicht fertig geladen, Fenster geht auf oder hängt sich auf, etc.
Kenn jemand vielleicht ne Möglichkeit das mit einer Render Engine auf dem Raspberry zu machen, die kein UI hat?
Danke für deinen Tipp.
Jensen
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 272848
Url: https://administrator.de/forum/linux-website-screenshot-via-kommandozeile-erstellen-272848.html
Ausgedruckt am: 12.04.2025 um 06:04 Uhr
5 Kommentare
Neuester Kommentar
wget http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...
liefert eine html-Seite zurück: "3_tagesvorhersage/?id=DE0004130",
das kann ein cron z.B. stündlich machen,
die Datei sieht gräßlich CSS/HTML/DIV'ig aus, aber Temperaturen sind darin enthalten - also nicht nur in Bildchen,
welche Zeile man nun braucht und wie man sie ausschneidet? - mit lauter Linux-Basisbefehlen: head, tail, wc, grep - oder eleganter mit sed, awk - das Ergebnis kann man in eine Datenbank hauen oder auch wieder in eine HTML-Seite auf dem Apache includen.
Bestimmt gibt es von Meteorologischen Instituten o.ä. weniger aufgeblasene Infos?
Oder eine mobile Ansicht?
Aber das sei erstmal der Weg.
einfacher wäre als cron
cd /var/www/htdocs/
wget -k -r --level=2 http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...
einfach eine lokale Kopie der Webseite in den Documentroot des Webservers, auf den mit Webclient zugegriffen wird.
HG
Mark
liefert eine html-Seite zurück: "3_tagesvorhersage/?id=DE0004130",
das kann ein cron z.B. stündlich machen,
die Datei sieht gräßlich CSS/HTML/DIV'ig aus, aber Temperaturen sind darin enthalten - also nicht nur in Bildchen,
welche Zeile man nun braucht und wie man sie ausschneidet? - mit lauter Linux-Basisbefehlen: head, tail, wc, grep - oder eleganter mit sed, awk - das Ergebnis kann man in eine Datenbank hauen oder auch wieder in eine HTML-Seite auf dem Apache includen.
Bestimmt gibt es von Meteorologischen Instituten o.ä. weniger aufgeblasene Infos?
Oder eine mobile Ansicht?
Aber das sei erstmal der Weg.
einfacher wäre als cron
cd /var/www/htdocs/
wget -k -r --level=2 http://www.wetter.com/wetter_aktuell/wettervorhersage/3_tagesvorhersage ...
einfach eine lokale Kopie der Webseite in den Documentroot des Webservers, auf den mit Webclient zugegriffen wird.
HG
Mark
Die Luxus Lösung.
Mit PHP die einzeldaten abgreifen. Vielleicht gibt's auch hier bei fertige Schnittstellen und die zu einen neuen eigenen schönen Webseite Parsen und dann auf dem Kindle Darstellen und per JavaScript den Refresh machen.
http://www.php-kurs.info/tutorial-webseiten_auslesen.html