compane
Goto Top

Mit Batch Datei downloaden von https

Hallo Zusammen,
ich komme nicht weiter ich würde am liebsten per batch dateien von einen https - Link downloaden.

Ich habe es schon mit wget probiert aber es Funktioniert nicht.
Bsp.: wget http://www.pctipp.ch/index.cfm?pid=1411&pk=29031

Ich denke mal es liegt daran das keine direkte Datei angegeben ist.
Könnt ihr mir weiter Helfen,

oder habt ihr eine andere Lösung?


Danke schon mal im Vorraus

mfg
Compane


P.S. also denke ich mal, da habe ich was gefunden wo mir keiner weiterhelfen kann !!!

Content-Key: 67766

Url: https://administrator.de/contentid/67766

Ausgedruckt am: 28.03.2024 um 12:03 Uhr

Mitglied: Natureshadow
Natureshadow 06.09.2007 um 13:15:02 Uhr
Goto Top
Hallo,

der Link in deinem Beispiel führt auf eine Website von pctipp.ch, nicht zu irgendeinem "Download". Worum geht es dir nun, speziell um HTTPS (welches in deinem Beispiel nicht vorkommt), oder um den Download allgemein?

Was sagt wget?

-nik
Mitglied: 49391
49391 06.09.2007 um 13:15:44 Uhr
Goto Top
Servus Compane,

Dein Beispiel
wget http://www.pctipp.ch/index.cfm?pid=1411&pk=29031
funktioniert deshalb nicht, weil die shell das "&pk=29031" als Kommando interpretiert und wget somit eine Seite abzurufen versucht, die (evtl.) nicht existiert. Dafür existiert danach eine shell-Variable namens pk mit dem Inhalt 29031. Läßt sich per
echo $pk
leicht prüfen.

Abhilfe:
Setz den Link unter Anführungszeichen. Mit der wget Option -O kannst Du eine Zieldatei angeben (weitere Details per wget -help)
wget -O meine_seite.html "http://www.pctipp.ch/index.cfm?pid=1411&pk=29031"  
sollte wie erwartet funktionieren.

Hoffe, ich konnte helfen
Gruß
Mitglied: Natureshadow
Natureshadow 06.09.2007 um 13:38:53 Uhr
Goto Top
@49391:

Bist du dir da sicher? "Batch" klingt sehr nach Windows (das andere Wort mit dem f am Ende darf man wohl hier nicht schreiben) ... Macht für deinen Einwand keinen Unterschied, aber spätestens "echo $pk" dürfte daneben gehen.

Außerdem möchte er ja (wie ich das verstehe) eben NICHT diese HTML-Seite, sondern einen Download, der irgendwo ist, aber bestimmt nicht unter dem URL.
Mitglied: Compane
Compane 06.09.2007 um 14:35:33 Uhr
Goto Top
Hi Jungs,

Danke für die Tipps wenn ihr den Link in euren explorer aufruft wird ein download gestartet.

http://www.pctipp.ch/index.cfm?pid=1411&pk=29031

war halt nur ein Beispiel

grüße compane
Mitglied: Natureshadow
Natureshadow 06.09.2007 um 14:53:08 Uhr
Goto Top
Falsch. Der Download startet nach ein paar Sekunden beim Refresh der Seite. Der richtige Link ist dann http://www.pctipp.ch/_tf/tf.cfm?pk=29031
Mitglied: 49391
49391 06.09.2007 um 18:36:25 Uhr
Goto Top
Servus Natureshadow,

hab wget gelesen und das ist (bzw. war) für mich Un*x.
Aber Google "ist mein Freund" und da hab ich gerade gesehen daß es wget tatsächlich auch für WIN gibt.
Mein Fehler, bitte um Nachsicht face-smile
Somit ist natürlich auch mein Hinweis mit "&pk=..." obsolet.

@Compane
wget lädt alles runter was Du willst, solange Du weißt, was Du willst.

Gruß
Mitglied: Compane
Compane 07.09.2007 um 15:58:07 Uhr
Goto Top
Servus,

könnt ihr mir mal ein Beispiel nennen

ich müsste wget dann so ausführen können das ich aus einer txt datei die links lese.

wäre Super Danke


mfg

Compane
Mitglied: Natureshadow
Natureshadow 07.09.2007 um 21:24:35 Uhr
Goto Top
Sorge doch erstmal dafür, dass es so klappt. Ein Beispiel hast du selber genannt. Jetzt musst du nur noch die richtige URL finden.

-nik
Mitglied: Compane
Compane 08.09.2007 um 12:22:18 Uhr
Goto Top
Servus,

nochmal danke für eure Hilfe.

Es wurde zwar keine richtige Lösung gefunden.

Aber naja.

mfg

Compane
Mitglied: 49391
49391 08.09.2007 um 18:57:49 Uhr
Goto Top
Hallo Compane,

Es wurde zwar keine richtige Lösung gefunden. Aber naja.
Starke Meldung! Es wurde auch das Problem nicht wirklich geschildert.
  • Hast Du nun ein Problem mit wget?
  • Kannst Du wget auf der Kommandozeile erfolgreich ausführen? Wenn nein, welche Meldungen werden ausgegeben?
  • Hast Du Natureshadows Link http://www.pctipp.ch/_tf/tf.cfm?pk=29031 einmal probiert? Mit welchem Ergebnis?
  • Welche Datei(en) möchtest Du nun herunterladen (wie wär es mit 'echten' Links)?
  • Sind die Dateien immer unter statischen Links erreichbar, d.h. ist Deine .TXT ebenfalls statisch? Wenn ja, schreib einfach vor jeden Link ein wget und starte den Batch-Job doch einfach über die WIN-Zeitsteuerung (heißt dort - glaube ich - "Geplante Tasks").
  • Wenn die Links dynamisch (sich z.B. mit Uhrzeit namentlich verändern), wie gedenkst Du sie zu generieren und in Deine .TXT einzutragen?

Wie überall im Leben gilt: Es kann Dir nur geholfen werden, wenn Du Informationen preisgibst, was Du eigentlich brauchst.
Solltest Du also Hilfe brauchen, sag einfach, was Dir fehlt.

Gruß
Mitglied: Compane
Compane 09.09.2007 um 12:08:56 Uhr
Goto Top
Hi Viuser,

danke für deine Tipps wget funktioniert !!!!!

Ich habe nochmal mit meinen Serverleuten gesprochen,

wget wurde von unserem System (auf Arbeit) geblockt.

Zu Hause Funktionierts !!!!!

Bsp: wget http://www.pctipp.ch/_tf/tf.cfm?pk=29031

Ich wollte eine Batch schreiben die denn Quelltext einer Internet Seite Ausliest, in einer Textdatei abspeichert, dann mit findstr links findet und in eine andere Batch schreibt die nach der suche ausgeführt wird, dann sollten die files nacheinander gedownloadet werden.

Mir fehlt nur noch das Automatische Auslesen der Internetseite!

gruß

Compane
Mitglied: Natureshadow
Natureshadow 09.09.2007 um 13:01:19 Uhr
Goto Top
Wenn ich das richtig lese möchtest du einen kompletten Baum von verlinkten Seiten downloaden, nennt sich dann auch spidern.

wget kann das von Haus aus mit der Option -r.

-nik