Scrapy, keine Fehler, schließt Spinne nach
for restaurant in response.xpath('//div[@class="listing"]'):
\t \t
\t \t
\t \t
\t \t
\t \t restaurantItem = RestaurantItem()
\t \t
\t \t restaurantItem['name'] = response.css(".title::text").extract()
\t \t
\t \t
\t \t yield restaurantItem
\t \t
\t \t next_page = response.css(".next > a::attr('href')")
\t \t if next_page:
\t \t url = response.urlJoin(next_page[0].extract())
\t \t yield scrapy.Request(url, self.parse)
kriechen ich alle Fehler behoben, dass es mich gab. Jetzt bekomme ich keine Fehler. Die Spinne schließt sich, nachdem Sie die start_url gecrawlt haben. Die for-Schleife wird nie ausgeführt.
Vielleicht weil es die 'next_page' im DOM nicht findet? –
Es erreicht nie diesen Punkt, ich habe versucht, eine Print-Anweisung kurz danach zu schreiben, es geht nie in die for-Schleife ... und gibt mir keine Fehler ... – panther1
ok, so dass es nie das 'div' finden Sie versuchen erreichen. Geben Sie einen Link vielleicht oder einige HTML-Codebeispiel –