Ich möchte eine Website mit 2 Teilen crawlen und mein Skript ist nicht so schnell wie ich brauche.Laufen mehrere Spinnen in scrapy für 1 Website parallel?
ist es möglich, 2 Spinnen, eine für das Schaben des ersten Teils und die zweite für das zweite Teil zu luanch?
Ich habe versucht 2 diffrent Klassen haben, und sie laufen
scrapy crwal firstSpider
scrapy crawl secondSpider
aber ich denke, dass es nicht klug ist.
Ich lese die documentation of scrapyd, aber ich weiß nicht, ob es gut für meinen Fall ist.
Dank Mann, es ist genau etwas umgewandelt werden, was ich – parik