2016-05-06 6 views
0

Das offensichtliche, ich habe vor kurzem SPARK auf UBUNTU (VMWARE-Workstation) installiert. Unten finden Sie meine PC-Spezifikationen.spark-submit funktioniert für Python-Programme, aber pyspark funktioniert nicht

Windows Dell Laptop (Windows 10).

Installierte VMWARE PRO 12 und geladen Ubuntu 15 darauf. Installierte SPARK 1.6.1/JAVA 1.7/Python 2.7 und SCALA 2.11.8 mit Standard-Skripten.

Ich habe ein Beispielprogramm mit dem Befehl "function submit" ausgeführt und es ist in Ordnung. Aber wenn ich versuche, mich in die pypspark-Shell einzuloggen, bekomme ich die Fehlermeldung "pyspark: command not found"

Was scheint das Problem zu sein. Ich kann alle Dateien im Bin-Verzeichnis von Spark sehen (sowohl pyspark als auch spark-submit).

Grüße VVSAUCSE

Antwort

0

Nicht sicher, ob dies ist, wie es funktioniert, der vollständige Pfad mit Befehlsnamen funktioniert. Ich entschuldige mich dafür, dass ich es nicht vorher wusste oder es ausprobierte.

/SparkPath/bin/pyspark funktioniert gut statt nur pyspark

Verwandte Themen