2016-12-20 3 views
1

(Hinweis: Sie müssen mindestens 10 Ruf mehr als 2 Links posten Ich hatte die http und Urls zu entfernen, aber es ist immer noch verständlich hoffe ich.!)Wget Macro zum Herunterladen mehrerer URLs?

Hallo!

Ich versuche Wget eine ganze Website für den persönlichen pädagogischen Einsatz. Hier ist, was die URL wie folgt aussieht:

example.com/download.php?id=1

ich alle Seiten von 1 bis zur letzten Seite herunterladen möchte, die 4952 ist

so die erste URL ist:

example.com/download.php?id=1

und die zweite ist

example.com/download.php?id=4952

Was wäre die effizienteste Methode, um die Seiten von 1 zum Download - 4952?

Mein aktueller Befehl ist (es funktioniert völlig in Ordnung, die genaue Art, wie ich will es):

wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1 

HINWEIS: Die Website einen Troll hat und wenn Sie versuchen, den folgenden Befehl auszuführen:

es wird eine 1000 GB .rar-Datei herunterladen, nur um dich zu trollen !!!

Ich bin neu zu Linux, bitte sei nett! versuche nur zu lernen!

Vielen Dank!

+0

Verwenden 'for i in {1..4952}' und dann '$ I' in die URL einfügen. – Barmar

+0

Lösung {1..4952} ({1..4952}) ... fehlgeschlagen: Name oder Dienst nicht bekannt. wget: Hostadresse konnte nicht aufgelöst werden '{1..4952}' – PurifiedDrinkingWater

+0

Welche Shell verwenden Sie für das Skript? '{1..4952}' funktioniert in 'bash'. – Barmar

Antwort

0

Notepadd ++ =

Ihre URL + Spalteneditor = Massive Liste aller Urls

Wget -I your_file_with_all_urls = Erfolg!

dank Barmar

Verwandte Themen