ingenieurs
Goto Top

Komplette Website samt Verzeichnisbaum herunterladen

Hallo
Ich bräuchte ein Tool etc welches mir erlaubt alle Dateien wie z.b ISO einer Website herunterzuladen.
Da das leider sehr viele ISO Dateien sind, würde es Stunden alles manuell anzuklicken um es herunterzuladen.
Außerdem würde ich gerne den Verzeichnisbaum der Website übernehmen, damit alle Dateien schön geordnet in ihre Ordner finden, wo man sie wiederfindet.

Viele Grüße
Ingenieurs

Content-ID: 383477

Url: https://administrator.de/contentid/383477

Ausgedruckt am: 24.11.2024 um 05:11 Uhr

Henere
Lösung Henere 16.08.2018 um 02:02:25 Uhr
Goto Top
Servus,

entweder fragst Du den Rechteinhaber ob Du anderen Zugriff bekommen kannst, oder nutzt ein Tool um die ganze Seite runterzuladen. Geht aber nur, wenn die Dateien verlinkt sind, oder alternativ das DIR-Listing erlaubt wurde.

https://www.google.de/search?q=Webseite+Downloaden&oq=Webseite+Downl ...

Viel Erfolg,

Henere
Ingenieurs
Ingenieurs 16.08.2018 um 02:09:14 Uhr
Goto Top
WinHTTrack ist die Lösung vielen dank face-smile
StefanKittel
StefanKittel 16.08.2018 um 07:32:23 Uhr
Goto Top
Moin,

das geht auch mit wget und ist damit weniger fummelig als winhttrack.

wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains website.org \
     --no-parent \
         www.website.org/tutorials/html/

This command downloads the Web site www.website.org/tutorials/html/.

The options are:
--recursive: download the entire Web site.
--domains website.org: don't follow links outside website.org.
--no-parent: don't follow links outside the directory tutorials/html/.
--page-requisites: get all the elements that compose the page (images, CSS and so on).
--html-extension: save files with the .html extension.
--convert-links: convert links so that they work locally, off-line.
--restrict-file-names=windows: modify filenames so that they will work in Windows as well.
--no-clobber: don't overwrite any existing files (used in case the download is interrupted and resumed).

Quelle: https://www.linuxjournal.com/content/downloading-entire-web-site-wget

Stefan