Ich schreibe einen Web-Crawler, der in der Lage sein soll, mehrere Seiten gleichzeitig zu analysieren. Ich benutze Nokogiri zum Parsen, was sehr gut ist und alle meine Aufgaben löst, aber ich weiß nicht, wie ich eine bessere Leistung erreichen kann.Web Crawler in Ruby: Wie erreicht man die beste Performance?
Ich benutze Threads, um viele Open-Uri Anfragen gleichzeitig zu machen und es macht den Prozess schneller, aber es scheint, dass es noch weit von dem Potential entfernt ist, das ich von einem einzelnen Server erreichen kann. Sollte ich mehrere Prozesse verwenden? Was sind die Grenzen der Threads und Prozesse, die für eine einzelne Ruby-Anwendung gestartet werden können?
Mit anderen Worten: Wie erreicht man in diesem Fall die beste Leistung?
Hmm, in Java neu schreiben? –