Ich bin neu in Scrapy und Python, also auch nach dem Lesen der Dokumentation vermisse ich wahrscheinlich etwas.Scrapy - Artikel speichern und neue URL analysieren
Meine Star-URL muss einige Fußballturniere haben, jedes Turnier hat mehrere Spiele. Der erste Parser erhält das gesamte Turnier und macht für jedes Turnier eine neue Anfrage, um die Spiele zu erhalten. Ich versuche eine Möglichkeit zu finden, die Turnierinformationen zu speichern, bevor ich die Spiele parse. In meinem Kopf so etwas wie wäre:
def parse_matches(self, response):
for match in response.css('#tup_type_1_mkt_grps .rowOdd'):
#fetching the tournament properties
tournament = TournamentItem(name=name, country=country...)
#save the tournament (I don't know how)
yield scrapy.Request(match.css('a[href]::attr(href)').extract_first(), callback=self.parse_bets)
jemand eine Möglichkeit, dies zu tun denken kann?