2017-05-11 4 views
1

Ich bin neu in Scrapy und Python, also auch nach dem Lesen der Dokumentation vermisse ich wahrscheinlich etwas.Scrapy - Artikel speichern und neue URL analysieren

Meine Star-URL muss einige Fußballturniere haben, jedes Turnier hat mehrere Spiele. Der erste Parser erhält das gesamte Turnier und macht für jedes Turnier eine neue Anfrage, um die Spiele zu erhalten. Ich versuche eine Möglichkeit zu finden, die Turnierinformationen zu speichern, bevor ich die Spiele parse. In meinem Kopf so etwas wie wäre:

def parse_matches(self, response): 
     for match in response.css('#tup_type_1_mkt_grps .rowOdd'): 
      #fetching the tournament properties 
      tournament = TournamentItem(name=name, country=country...) 
      #save the tournament (I don't know how) 
      yield scrapy.Request(match.css('a[href]::attr(href)').extract_first(), callback=self.parse_bets) 

jemand eine Möglichkeit, dies zu tun denken kann?

Antwort

1

Ich habe einen Weg gefunden, es zu tun (ich hatte Recht, mir fehlte etwas Wichtiges). Sie können eine Pipeline erstellen, um die Elemente in der Datenbank zu speichern, gleichzeitig können Sie jedoch weiterhin URLs zum Parsen senden. Ich war verwirrt und ich war hart, dass beide nicht zusammen leben konnten