2012-11-23 6 views

Antwort

83

Der Befehl lautet:

wget -r -np -l 1 -A zip http://example.com/download/ 

Bedeutung Optionen:

-r, --recursive   specify recursive download. 
-np, --no-parent   don't ascend to the parent directory. 
-l, --level=NUMBER  maximum recursion depth (inf or 0 for infinite). 
-A, --accept=LIST  comma-separated list of accepted extensions. 
+11

Die '-nd' (keine Verzeichnisse) flag ist praktisch, wenn Sie keine zusätzlichen Verzeichnisse erstellen möchten (dh alle Dateien befinden sich im Stammordner). –

+0

Wie optimiere ich diese Lösung, um tiefer von der gegebenen Seite zu gehen? Ich habe versucht -l 20, aber wget stoppt sofort. – Wrench

47

Above Lösung ist für mich nicht. Für mich nur diese funktioniert:

wget -r -l1 -H -t1 -nd -N -np -A.mp3 -erobots=off [url of website] 

Optionen Bedeutung:

-r   recursive 
-l1   maximum recursion depth (1=use only this directory) 
-H   span hosts (visit other hosts in the recursion) 
-t1   Number of retries 
-nd   Don't make new directories, put downloaded files in this one 
-N   turn on timestamping 
-A.mp3  download only mp3s 
-erobots=off execute "robots.off" as if it were a part of .wgetrc 
+1

Quelle: http://www.commandlinefu.com/commands/view/12498/download-all-music-files-off-of-a-website-using-wget –

+0

ja, danke! Ich konnte mich nicht erinnern, woher es kam, es lag einfach in meinen Skripten. –

+0

weiß nicht Entschuldigung. mach eine neue Frage! ;) –

1

Für andere Szenarien mit einigen parallel Magie I:

curl [url] | grep -i [filending] | sed -n 's/.*href="\([^"]*\).*/\1/p' | parallel -N5 wget - 
Verwandte Themen