Ich mache einen Web-Crawler auf einer großen Website. Es traf jedoch immer geschlossene Verbindungen, SSL-Fehler oder andere zeitweilige Fehler aufgrund von instabiler Verbindung. Daher finde ich einen Weg, um mit diesem Problem umzugehen. Dies ist mein Code unten, kann mir jemand sagen, wie das Warten zu implementieren oder versuchen Sie es erneut das Projekt erneut zu starten, wenn die Netzwerkverbindung bestehtUmgang mit Netzwerkfehlern Python, Web Crawler
try:
requests.get("http://example.com")
except requests.exceptions.RequestException:
pass # handle the exception. maybe wait and try again later
Vielen Dank! Es funktioniert. – Michael