kai-aus-der-kiste
Goto Top

Bash Script für Automatisierung

Kurz zum Problem, und der Aufgabenstellung, oder Lösungswunsch.
Ich verwende als Umsteiger von Windows auf Linux seit einigen Monaten die Distribution Linux Mint jetzt in der aktuellen Version 20.1 Cinnamon. Da unter Linux nicht mehr die Software von Adobe für die Betrachtung und Bearbeitung von PDF Dokumenten genutzt werden kann, stoße ich mit dem vorhandenen Xreader an meine Grenzen.
Da ich oder wir fast ausschließlich mit umfangreichen PDF Dokumenten arbeiten ( > 300 Seiten ) und diese auch eine Vielzahl von Weblinks in der Darstellungsweise [„angezeigter Text“;“Webadresse“] enthält, wird die Arbeit damit sehr mühsam. Ich kann zwar auf dieses Wort klicken und erhalte im Kontextmenü die Auswahl, entweder den Link einzeln zu öffnen, oder die Linkadresse in die Zwischenablage zu kopieren. Damit kann ich zwar ein TXT Datei erstellen, in der alle Links nacheinander aufgelistet sind. Das ist aber sehr mühsam und aufwendig. Gibt es nun eine Möglichkeit via eines Scripts, diese Links aus der PDF Datei zu extrahieren, diese in einer Datei zwischenzuspeichern, und wie ich schon herausgefunden habe, nur diese eine Web-Seite mit WGET zu downloaden, und auch wieder als PDF abzulegen.

Meine Überlegung dazu: -ein Script

-extrahiere_PDF Dateiname.pdf linkliste.txt-
-prüfe linkliste.txt- #wenn der Host nicht erreichbar ist, was ab und an mal vorkommt, soll dieser Eintrag aus der Liste entfernt werden
- for ANFANG bis ENDE in linkliste.txt do
Download der Seite mit WGET mit allen enthaltenen Bild-Elementen, aber ohne weiterführende LINKS, und Mediendarstellungen ( keine GIFs, keine Audiostreams, keine Videodarstellungen, keine JAVA Applets )
Wandle die gedownloadete Webseite in ein PDF Dokument um
-Lösche alle Downloads die mit WGET gemacht worden.


Bitte keine Diskussion warum ich überhaupt auf Linux umgestiegen bin. Das hatte mehrere Gründe, die sowohl in der Update- und Treiberpolitik von Microsoft zu finden sind, wie auch der Tatsache, dass ich nicht aller paar Jahre neue Hardware kaufen möchte, nur weil die Anforderungen ( speziell Hardware ) für flüssiges Arbeiten unter Windows 10 immer weiter und schneller steigen. Zudem habe ich in Erfahrung gebracht, dass auch das Rasbian OS für ein Raspberry PI den selben Systemunterbau wie Linux Mint hat. Wenn dieser Script auf meinem Laptop läuft, würde ich den Script auf ein RASPI installieren wollen. Dieses kann dann Zeit-unkritisch diese Aufgabe im Hintergrund übernehmen, falls es dafür ausreichend leistungsfähig ist. Zur Zeit habe ich schon ein PI 3B+ als lokales NAS im Einsatz.

Content-ID: 660332

Url: https://administrator.de/contentid/660332

Ausgedruckt am: 25.11.2024 um 02:11 Uhr

NordicMike
NordicMike 08.03.2021 um 09:15:17 Uhr
Goto Top
Ja, das geht alles mit der Shell. Das wirst du nicht fertig finden, du musst dich Schritt für Schritt in jeden Zwischenpunkt einarbeiten. Die Windows Updates sind noch harmlos dagegen.
pvps1at
Lösung pvps1at 08.03.2021 um 13:46:36 Uhr
Goto Top
ausgemachter Blödsinn, sorry.

erster Link einer google suche:
https://stackoverflow.com/questions/31436357/how-to-extract-all-links-fr ...
NordicMike
NordicMike 08.03.2021 um 13:48:41 Uhr
Goto Top
Was ist Blödsinn?
pvps1at
Lösung pvps1at 08.03.2021 um 13:50:06 Uhr
Goto Top
der zweite link von google liefert gleich nochmals mehrer Lösungen die copy/paste übernommen werden können.

https://unix.stackexchange.com/questions/531870/bash-get-links-from-pdf
Kai-aus-der-Kiste
Kai-aus-der-Kiste 08.03.2021 um 19:07:17 Uhr
Goto Top
Moin @pvps1at

Danke erst einmal für deine Links. Ich werde das mal Schritt für Schritt durch und ausprobieren. Aber ich habe noch eine anderes Projekt parallel laufen, was mir jetzt wichtiger erscheint. Danke erst einmal !

Kai