Ich versuche, einen Web Scraping Crawler als Teil meines ASP.NET MVC-Projekts zu implementieren. Es funktioniert mit großen Daten, die von verschiedenen URLs mit dem Html Agility Pack gesammelt wurden. Das Problem ist, wenn ich die Funktion tatsächlich ausführen möchte, bekomme ich nach einer Minute "Die Verbindung wurde zurückgesetzt" vom Remote-Server. Ich bekomme ein besseres Ergebnis, wenn ich es lokal ausführe. Ich habe Zugriff auf Remote-IIS. Irgendwelche Vorschläge, um dieses Problem und/oder Alternativen zu lösen?Timeout-Problem mit ASP.NET Web Scraping
0
A
Antwort
1
0
Verbindungs- und Netzwerkprobleme können zu solchen Problemen führen. Um das Blockieren anderer URLs zu verhindern, könnten Sie die Arbeit in separate Threads parallelisieren.
Verwandte Themen
- 1. Web Scraping mit R
- 2. Web Scraping mit Capybara
- 3. Web Scraping mit Java
- 4. Web Scraping mit Python
- 5. Rselenium Web-Scraping mit R
- 6. Web Scraping mit Hippo CMS
- 7. Web Scraping, Screen Scraping, Data Mining Tipps?
- 8. Rselenen Web Scraping Probleme
- 9. Heroku und Web Scraping
- 10. Web Scraping ~ Python
- 11. Web-Scraping Beratung/Vorschläge
- 12. Web Scraping Probleme
- 13. Web scraping wordlists
- 14. Node.js Web Scraping
- 15. BeautifulSoup Web Scraping
- 16. Python Web Scraping Probleme
- 17. Web Scraping von youtube mit Nokogiri
- 18. Scraping Paginierung Web mit beautifulsoap Python
- 19. Web Scraping Aktien Dividend Daten mit F #
- 20. Web-Scraping mit XpathSApply. Erst xmlValue
- 21. Android Web mit einem Headless Browser Scraping
- 22. Scraping Daten von einem Web mit R
- 23. Fehler beim Web-Scraping mit Python
- 24. Web Scraping paginierte Seite mit HtmlAgilityPack
- 25. Erstellen von Dataset mit Python, Scraping Web
- 26. Web Scraping und Mixed Content
- 27. Web Scraping, das Benutzerinteraktion erfordert
- 28. Android Web Scraping für Ergebnis
- 29. Python Web Scraping gnp Paket
- 30. Stuck auf Web Scraping Code
Versuchen Sie, _alle_ URLs in einer Anfrage auf Ihre Seite zurückzurufen? – Oded
Ja, denke ich. Es gibt eine Schleife, die die URLs erzeugt und versucht, sie zu erfassen. aber mit diesem Zeitlimit kann es nur wenige URLs bekommen. –