Ich habe Spark in Scala für eine lange Zeit verwendet. Jetzt benutze ich zum ersten Mal pyspark. Dies ist auf einem MacInstallieren von pyspark auf MacBook
- Zuerst habe ich installiert pyspark mit Conda pyspark installieren, und es installiert pyspark 2.2.0
- ich Funke selbst installiert Apache-Funken installieren mit brauen, und es scheint zu Apache-Funke installiert 2.2.0
aber wenn ich pyspark laufen, gibt sie heraus
/Users/me/anaconda/bin/pyspark: line 24: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/load-spark-env.sh: No such file or directory
/Users/me/anaconda/bin/pyspark: line 77: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/spark-submit: No such file or directory
/Users/me/anaconda/bin/pyspark: line 77: exec: /Users/bruceho/spark-1.6/spark-1.6.2-bin-hadoop2.6/bin/spark-submit: cannot execute: No such file
Warum ist es auf die 1.6.2-Installation zeigen, die nicht mehr da zu sein scheint? Brew Suche Apache-Funke zeigt das Vorhandensein von beiden 1,5. und 1.6. Sollte pyspark 2.2.0 nicht automatisch auf die Installation von apache-spark 2.2.0 verweisen?
Haben Sie gründen 'SPARK_HOME',' PYSPARK_PYTHON', ' PYSPARK_DRIVER_PYTHON' in '.bash_profile'? – titipata
Ich habe ein altes SPARK_HOME in .bash_profile gefunden. Diese Parameter müssen bei der Verwendung von Apache-Spark nicht definiert werden. – bhomass
Wahrscheinlich nur, um es zu entfernen, denke ich? – titipata