Komplette Website samt Verzeichnisbaum herunterladen
Hallo
Ich bräuchte ein Tool etc welches mir erlaubt alle Dateien wie z.b ISO einer Website herunterzuladen.
Da das leider sehr viele ISO Dateien sind, würde es Stunden alles manuell anzuklicken um es herunterzuladen.
Außerdem würde ich gerne den Verzeichnisbaum der Website übernehmen, damit alle Dateien schön geordnet in ihre Ordner finden, wo man sie wiederfindet.
Viele Grüße
Ingenieurs
Ich bräuchte ein Tool etc welches mir erlaubt alle Dateien wie z.b ISO einer Website herunterzuladen.
Da das leider sehr viele ISO Dateien sind, würde es Stunden alles manuell anzuklicken um es herunterzuladen.
Außerdem würde ich gerne den Verzeichnisbaum der Website übernehmen, damit alle Dateien schön geordnet in ihre Ordner finden, wo man sie wiederfindet.
Viele Grüße
Ingenieurs
Bitte markiere auch die Kommentare, die zur Lösung des Beitrags beigetragen haben
Content-ID: 383477
Url: https://administrator.de/contentid/383477
Ausgedruckt am: 24.11.2024 um 05:11 Uhr
3 Kommentare
Neuester Kommentar
Servus,
entweder fragst Du den Rechteinhaber ob Du anderen Zugriff bekommen kannst, oder nutzt ein Tool um die ganze Seite runterzuladen. Geht aber nur, wenn die Dateien verlinkt sind, oder alternativ das DIR-Listing erlaubt wurde.
https://www.google.de/search?q=Webseite+Downloaden&oq=Webseite+Downl ...
Viel Erfolg,
Henere
entweder fragst Du den Rechteinhaber ob Du anderen Zugriff bekommen kannst, oder nutzt ein Tool um die ganze Seite runterzuladen. Geht aber nur, wenn die Dateien verlinkt sind, oder alternativ das DIR-Listing erlaubt wurde.
https://www.google.de/search?q=Webseite+Downloaden&oq=Webseite+Downl ...
Viel Erfolg,
Henere
Moin,
das geht auch mit wget und ist damit weniger fummelig als winhttrack.
This command downloads the Web site www.website.org/tutorials/html/.
The options are:
--recursive: download the entire Web site.
--domains website.org: don't follow links outside website.org.
--no-parent: don't follow links outside the directory tutorials/html/.
--page-requisites: get all the elements that compose the page (images, CSS and so on).
--html-extension: save files with the .html extension.
--convert-links: convert links so that they work locally, off-line.
--restrict-file-names=windows: modify filenames so that they will work in Windows as well.
--no-clobber: don't overwrite any existing files (used in case the download is interrupted and resumed).
Quelle: https://www.linuxjournal.com/content/downloading-entire-web-site-wget
Stefan
das geht auch mit wget und ist damit weniger fummelig als winhttrack.
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
This command downloads the Web site www.website.org/tutorials/html/.
The options are:
--recursive: download the entire Web site.
--domains website.org: don't follow links outside website.org.
--no-parent: don't follow links outside the directory tutorials/html/.
--page-requisites: get all the elements that compose the page (images, CSS and so on).
--html-extension: save files with the .html extension.
--convert-links: convert links so that they work locally, off-line.
--restrict-file-names=windows: modify filenames so that they will work in Windows as well.
--no-clobber: don't overwrite any existing files (used in case the download is interrupted and resumed).
Quelle: https://www.linuxjournal.com/content/downloading-entire-web-site-wget
Stefan