Ich habe einen einfachen Crawler codiert. In der settings.py Datei von zu scrapy Dokumentation beziehen, habe ichDoppelte URL-Crawling vermeiden
DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter'
Wenn ich den Crawler stoppen und den Crawler wieder neu starten, ist es die doppelten URLs wieder kratzen. Mache ich etwas falsch?
Ich denke, das sollte die akzeptierte Antwort sein. – Mithril