Mögliche Duplizieren:
How can I speed up fetching pages with urllib2 in python?Retrieve auf einmal mehrere URLs/parallel
ich ein Python-Skript, die Web-Seite herunterladen, analysieren sie und einen Wert von der Seite zurückzukehren. Ich brauche ein paar solcher Seiten, um das Endergebnis zu erhalten. Jeder Seitenabruf dauert lange (5-10s) und ich würde lieber parallel Anfragen stellen, um die Wartezeit zu verkürzen.
Die Frage ist - welcher Mechanismus wird es schnell, korrekt und mit minimaler CPU/Speicherverschwendung machen? Twisted, Asyncore, Threading, etwas anderes? Können Sie einen Link zu Beispielen bereitstellen?
Danke
UPD: Es gibt ein paar Lösungen für das Problem, ich bin auf der Suche nach dem Kompromiss zwischen Geschwindigkeit und Ressourcen. Wenn Sie einige Erfahrung Details erzählen könnten - wie es aus Ihrer Sicht schnell unter Last ist - wäre es sehr hilfreich.
Siehe meine Antwort hier http://StackOverflow.com/Questions/3491455 –