2013-11-21 6 views
5

Hier ist ein Beispiel für mein Kommando:Wie kann man alle Bilder von einer Website mit wget herunterladen?

wget -r -l 0 -np -t 1 -A jpg,jpeg,gif,png -nd --connect-timeout=10 -P ~/support --load-cookies cookies.txt "http://support.proboards.com/" -e robots=off 

Based on the input here

Aber nichts wird wirklich heruntergeladen haben, nicht rekursive Crawling, es nur wenige Sekunden in Anspruch nimmt. Ich versuche, alle Bilder von einem Forum zu sichern, ist die Forumstruktur, die Probleme verursacht?

+1

Mögliche Duplikat http://stackoverflow.com/questions/4602153/how-do-i-use-wget-to-download-all-images-into-a-single-folder/21089847#comment33143483_21089847 –

Antwort

16
wget -r -P /download/location -A jpg,jpeg,gif,png http://www.site.here 

wirkt wie ein Zauber

+0

in meinem Fall diese Downloads 'robots.txt' Datei nur – vladkras

+0

für den Fall, dass Sie nur robots.txt erhalten, dann können Sie '-e Roboter = aus --wait 1 http://www.site.here ' an Ihr wget anhängen Befehl. Dadurch wird die robots.txt-Datei überschrieben und Sie erhalten den gesuchten Inhalt. ZB: wget -r -P/download/location -A jpg, jpeg, gif, png -e robots = aus --wait 1 http://www.site.here –

0

herunterladen Bilddatei unter einem anderen Namen. Hier stelle ich den wget.zip-Dateinamen wie unten gezeigt zur Verfügung.

# wget -O wget.zip http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz 
--2012-10-02 11:55:54-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz 
Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b 
Connecting to ftp.gnu.org|208.118.235.20|:80... connected. 
HTTP request sent, awaiting response... 200 OK 
Length: 446966 (436K) [application/x-gzip] 
Saving to: wget.zip 
100%[===================================================================================>] 446,966  60.0K/s in 7.5s 
2012-10-02 11:56:02 (58.5 KB/s) - wget.zip 
Verwandte Themen