Das offensichtliche, ich habe vor kurzem SPARK auf UBUNTU (VMWARE-Workstation) installiert. Unten finden Sie meine PC-Spezifikationen.spark-submit funktioniert für Python-Programme, aber pyspark funktioniert nicht
Windows Dell Laptop (Windows 10).
Installierte VMWARE PRO 12 und geladen Ubuntu 15 darauf. Installierte SPARK 1.6.1/JAVA 1.7/Python 2.7 und SCALA 2.11.8 mit Standard-Skripten.
Ich habe ein Beispielprogramm mit dem Befehl "function submit" ausgeführt und es ist in Ordnung. Aber wenn ich versuche, mich in die pypspark-Shell einzuloggen, bekomme ich die Fehlermeldung "pyspark: command not found"
Was scheint das Problem zu sein. Ich kann alle Dateien im Bin-Verzeichnis von Spark sehen (sowohl pyspark als auch spark-submit).
Grüße VVSAUCSE