Ich hatte mehrere Spider in meinem Projektordner und möchte alle Spider auf einmal ausführen, also entschied ich mich, sie mit Scrapyd-Service auszuführen. Ich habe begonnen, dies zu tun durch den Anblick hereFehler beim Bereitstellen eines Projekts mit Scrapyd
Zunächst einmal bin ich in aktuellen Projektordner
Ich hatte öffnete die
scrapy.cfg
Datei und unkommentiert die URL Zeile nach[einsetzen]
Ich hatte
scrapy server
Befehl ausgeführt, das funktioniert gut und Scrapyd Server läuftIch habe versucht, diesen Befehl
scrapy deploy -l
Ergebnis:
default http://localhost:6800/
- , wenn ich diesen Befehl versucht
scrapy deploy -L scrapyd
i Ausgang folgende bekam
Ergebnis:
Usage
=====
scrapy deploy [options] [ [target] | -l | -L <target> ]
deploy: error: Unknown target: scrapyd
als ich versuchte, die Bereitstellung Projekt mit diesem Befehl scrapy deploy scrapyd -p default
bekam folgenden Fehler
Usage
=====
scrapy deploy [options] [ [target] | -l | -L <target> ]
deploy: error: Unknown target: scrapyd
Ich bin wirklich nicht in der Lage Molke scrapyd zu identifizieren, die obigen Fehler zeigt, kann mich in eine richtige Art und Weise führen, wie ein Projekt in die Bereitstellung
Vielen Dank im Voraus scrapyd ..... .....
Edited-Code:
Nach der Antwort von Peter Kirby zu sehen, ich benannte Ziel in scrapy.cfg und versuchte, den folgenden Befehl in meinem Projektordner,
012.351.Befehl:
scrapy deploy ebsite -p ebsite
dann bekam ich die folgenden Fehler
Building egg of ebsite-1341808241
'build/lib' does not exist -- can't clean it
'build/bdist.linux-x86_64' does not exist -- can't clean it
'build/scripts-2.7' does not exist -- can't clean it
zip_safe flag not set; analyzing archive contents...
Deploying ebsite-1341808241 to http://localhost:6800/addversion.json
Deploy failed: <urlopen error [Errno 111] Connection refused>
wie diese lösen .....
Vielen Dank für ur Antwort fixiert, wie u sagte, ich bearbeitet meinen code wie oben und ich habe den Fehler oben erwähnt, können Sie mir sagen, wie das zu lösen –
Versuchen Sie den Zugriff auf die Scrapyd-Web-Oberfläche. Gehen Sie zu http: // localhost: 6800 oder geben Sie curl http: // localhost: 6800/listprojects.json ein und sagen Sie mir, was passiert. Möglicherweise ist Scrapyd nicht ordnungsgemäß installiert. Auf welchem Betriebssystem bist du? –