2016-12-27 1 views
-3

Ich muss herunterladen (zum Beispiel 1000) zufällige Artikel aus Wikipedia, und später mit Html Agility Pack, entfernen von HTML-Dateien/Strings entfernen Sie alle HTML/Scripts-Tags. Wie kann ich es herunterladen? Hat diese Bibliothek ein Tool zum Download von Artikeln aus dem www? Vielen Dank für HilfeWie kann ich Artikel von Websites herunterladen?

Antwort

1

Verwendung kann WebClient verwenden. Zum Beispiel:

var site = new System.Net.WebClient().DownloadString("http://google.com"); 
+0

ja, aber ich muß 1000 Artikel aus Wikipedia herunterladen. Zum Beispiel: Ich muss Artikel von URL herunterladen: https://en.wikipedia.org/wiki/Sport und ich muss Artikel herunterladen von: https://en.wikipedia.org/wiki/Basketball Zufällige 1000 Artikel . – srzeppa

0

Sie können ein Crawler-Tool schreiben 1000 Urls in wikipedia greifen und diese HtmlWeb in HtmlAgilityPack verwenden:

string Url = "http://something"; 
HtmlWeb web = new HtmlWeb(); 
HtmlDocument doc = web.Load(Url); 
Verwandte Themen