Ich habe einen web.py-Server, der auf verschiedene Benutzeranforderungen reagiert. Eine dieser Anfragen beinhaltet das Herunterladen und Analysieren einer Reihe von Webseiten.Python: einfacher async Download von URL-Inhalt?
Gibt es eine einfache Möglichkeit, einen asynchronen/Callback-basierten URL-Download-Mechanismus in web.py einzurichten? Geringe Ressourcennutzung ist besonders wichtig, da jede vom Benutzer initiierte Anfrage zum Herunterladen mehrerer Seiten führen kann.
Die Strömung würde wie folgt aussehen:
Anfrage Benutzer -> web.py -> Download 10 Seiten parallel oder asynchron -> Inhalte analysieren, Wiedereinarbeitungs
ich erkenne, dass Verdreht eine nette Weise sein würde, Um dies zu tun, aber ich bin bereits in web.py, so bin ich besonders interessiert an etwas, das in web.py passen kann.
Ich habe ein paar Fehlerkorrekturen im asynttpclient-Code. Ich habe versucht, den Autor zu mailen, aber er scheint nicht in der Nähe zu sein. Wenn Sie diese Korrekturen wünschen, können Sie mir eine E-Mail senden. Ich habe zusätzlich auch HTTP-Request-Pipelining aktiviert, was die Geschwindigkeit für viele kleinere Anfragen zusätzlich erhöhen sollte. – dhruvbird
Die Bugfixes und Erweiterungen für den asynttpp-Client finden Sie hier: http://code.google.com/p/asynhttp/ – dhruvbird