Ich baute Spark 1.4 von der GH-Entwicklung Master, und der Build ging gut durch. Aber wenn ich eine bin/pyspark
mache, bekomme ich die Python 2.7.9 Version. Wie kann ich das ändern?Apache Spark: Wie man pyspark mit Python 3 verwendet
Antwort
Schauen Sie sich die Datei an. Die Shebang-Zeile wird wahrscheinlich auf die Binärdatei 'env' gerichtet, die den Pfad nach der ersten kompatiblen ausführbaren Datei durchsucht.
Sie können Python zu Python3 ändern. Ändere das env, um die Python3-Binärdatei direkt zu verwenden. Oder führe die Binärdatei direkt mit python3 aus und lasse die shebang-Zeile weg.
Ja, in die Datei schauen geholfen. Erforderlich, um die Umgebungsvariable 'PYSPARK_PYTHON' zu setzen. – tchakravarty
PYSPARK_PYTHON=python3 ./bin/pyspark
Wenn Sie in IPython Notebook laufen in möchten, schreiben Sie:
PYSPARK_PYTHON=python3 PYSPARK_DRIVER_PYTHON=ipython PYSPARK_DRIVER_PYTHON_OPTS="notebook" ./bin/pyspark
Wenn python3
nicht zugänglich ist, müssen Sie Pfad statt, um es zu übergeben.
Denken Sie daran, dass die current documentation (as of 1.4.1) Anweisungen hat outdate. Glücklicherweise it has been patched.
Ich denke, Ihr Befehl für das IPython-Notebook ist nicht korrekt. Sollte wie folgt aussehen: PYSPARK_PYTHON = python3 PYSPARK_DRIVER_PYTHON = ipython3 PYSPARK_DRIVER_PYTHON_OPTS = "Notizbuch" ./bin/pyspark – SpiderRico
@ChrisNielsen Im Terminal. –
@ChrisNielsen Unter Linux oder OS X ist ein Terminal/Konsole. Ich habe keine Ahnung, wie es unter Windows funktioniert (in Windows habe ich Spark nur in einem Docker-Container verwendet). –
Setzen Sie einfach die Umgebungsvariable:
export PYSPARK_PYTHON=python3
falls Sie dies eine permanente Änderung dieser Zeile Skript pyspark hinzufügen zu sein.
1, Profil bearbeiten: vim ~/.profile
2, fügen Sie den Code in die Datei: export PYSPARK_PYTHON=python3
3, Befehl ausführen: source ~/.profile
4, ./bin/pyspark
- 1. Apache Spark TFIDF mit Python
- 2. Wie benutze ich benutzerdefinierte Klassen mit Apache Spark (pyspark)?
- 3. Wie konvertiert man Python-Code in Spark-kompatiblen Code (pyspark)?
- 4. Importieren Pyspark Fehler Pyspark mit Python 3.5.1
- 5. Wie behandelt Apache Spark Python Multithread-Probleme?
- 6. Apache Spark: wie man einen Zähler erstellt
- 7. Ausgabe Dstream von Apache Spark in Python
- 8. Wie benutzt man Fensterfunktionen in PySpark?
- 9. Wie kann man die queueStream API in apache spark verstehen?
- 10. Cassandra mit Spark (pyspark) verbinden/integrieren
- 11. Spark-Redshift mit Python
- 12. Lauf Python-Anwendungen durch 'pyspark' als Spark ist veraltet 1.0
- 13. Ausführen von nosetests für pyspark
- 14. Apache Spark löst NullPointerException bei fehlendem Feature
- 15. Apache Zeppelin schlägt beim Lesen csv mit pyspark
- 16. Apache Spark: Wie erstelle ich eine Matrix aus einem DataFrame?
- 17. Code mit dem Spark auf pyspark
- 18. Inkonsistente Ergebnisse mit ALS in Apache Spark
- 19. run Python-Skript mit pyspark Einstellungen
- 20. Wie visualisiere/plotte ich einen Entscheidungsbaum in Apache Spark (pyspark 1.4.1)?
- 21. Apache Spark: Python-Funktion serialisiert automatisch
- 22. Apache Spark - Wie langsam Aufgaben
- 23. Wie verwendet man FlatMap() auf einer Pipeline-RDD?
- 24. Wie verbindet man HBase und Spark mit Python?
- 25. Speichern Apache Spark mllib Modell in Python
- 26. spark-submit funktioniert für Python-Programme, aber pyspark funktioniert nicht
- 27. Wie man den Vakuumbefehl von SQLite 3 in Python verwendet
- 28. Spark-CSV oder PYSPARK-Csv in Spark-Umgebung (IBM Bluemix)
- 29. Lambda-Architektur mit Apache Spark
- 30. Fehler mit Apache Spark-Installations
Für alle, die für die, wie man tun Sie dies: 'PYSPARK_DRIVER_PYTHON = ipython3 PYSPARK_DRIVER_PYTHON_OPTS =" Notizbuch "./bin/pyspark', in diesem Fall führt es IPython 3 Notebook. – tchakravarty