Ich versuche, die Ausgabe des Scrapy Crawl-Befehls Ich habe versucht Aber es hat nicht funktioniert ... kann mir einige Körper sagen, wie ich Ausgabe zu einem Text speichern kann Datei .... Ich meine die Protokolle und Informationen von scrapy ... gedrucktWie scrapy crawl zu speichern Command Ausgabe
6
A
Antwort
9
Sie müssen stderr auch umleiten. Sie leiten nur stdout um. Sie können es umleiten irgendwie wie folgt aus:
scrapy crawl someSpider -o some.json -t json 2> some.text
Der Schlüssel ist die Nummer 2, die „wählt“ stderr als Quelle für die Umleitung.
Wenn Sie sowohl stderr und stdout in eine Datei umleiten möchten, können Sie verwenden:
scrapy crawl someSpider -o some.json -t json &> some.text
Für mehr über die Umleitung der Ausgabe: http://tldp.org/HOWTO/Bash-Prog-Intro-HOWTO-3.html
9
Sie diese Zeilen hinzufügen können, um Ihre settings.py
:
LOG_STDOUT = True
LOG_FILE = '/tmp/scrapy_output.txt'
und dann kriechen beginnen normalerweise:
scrapy crawl someSpider
0
Wenn Sie die Ausgabe von runspider Befehl erhalten möchten.
scrapy runspider scraper.py -o some.json -t json 2> some.text
Dies funktioniert auch.
Verwandte Themen
- 1. Scrapy - Crawl ganze Website
- 2. Scrapy authentifizierte Crawl
- 3. Scrapy Crawl mehrere Spinnen anschließend
- 4. Leere CSV nach Scrapy Crawl
- 5. Wie funktionieren Scrapy-Regeln mit Crawl Spider
- 6. Incremental crawl eine Website mit Scrapy
- 7. unbekannt Befehl: crawl Fehler
- 8. crawl requestes in FIFO-Reihenfolge mit scrapy
- 9. Python & Scrapy: Ausgabe mit Scrapy Version
- 10. Scrapy Crawl von Skript blockiert immer Skriptausführung nach dem Scrapen
- 11. CSV-Exporte - Sortierung von Spalten mit scrapy crawl -o output.csv
- 12. Django benutzerdefinierte Management-Befehl ausgeführt Scrapy: Wie Scrapy-Optionen enthalten?
- 13. scrapy verwenden mongodb, um Informationen zu speichern
- 14. Scrapy Erweiterungen Verzeichnis Erlaubnis Ausgabe
- 15. Scrapy Codierung Ausgabe der Python
- 16. Run scrapy mit Subprozess
- 17. Wie Nutch Crawl-Dateisystem zu machen?
- 18. sqlite3 command-line - Wie man weniger/mehr Ausgabe zeigt
- 19. Nesting command zu output
- 20. Wie implementiert man verschachtelte Artikel in Scrapy?
- 21. Scrapy: Wie Liste von Argumenten durch Eingabeaufforderung Spinne zu übergeben?
- 22. Scrapy: Rückkehr Liste der IDs nach
- 23. Software zu scrape/crawl Website URLs
- 24. Crawl über Sachen
- 25. Empty Nutch crawl list
- 26. Wie forma Scrapy exportiert
- 27. Zurücksetzen pausiert schaben, Scrapy
- 28. MOSS Crawl-Kontoberechtigungen durchsuchen
- 29. Ausgabe als Liste speichern
- 30. Warum kann es nicht das nächste Parse herauskommen? Über Scrapy Crawl
Überprüfen Sie [link] (http://doc.scrapy.org/en/latest/topics/logging.html#logging-settings) für weitere Protokollierungseinstellungen. Sie können sogar 'scrapy crawl MyCrawler -s LOG_FILE =/var/log/crawler_mycrawler.log' -s-Trigger verwenden, um Crawler-Einstellungen im laufenden Betrieb zu ändern. – pista329