2016-11-22 5 views
1

Wie importiert man pyspark in google-cloud-datelab notebook? Auch nach dem Einrichten von PYTHONPATH, SPARK_HOME auf Knoten, funktioniert es nicht? Fehle ich etwas?pyspark auf Google Cloud Datalab

ImportErrorTraceback (most recent call last) 
    <ipython-input-4-c15ae3402d12> in <module>() 
    ----> 1 import pyspark 

ImportError: No module named pyspark 

Antwort

0

Datalab derzeit nicht unterstützt (py) Funken noch (auch überprüfen ihre roadmap). Auf der Google Cloud Platform ist die einfachste Option in diesem Moment die Bereitstellung eines DataProc-Clusters mit dem Jupyter-Notebook, siehe Dokumentation here.

Beachten Sie, dass sich das Dataproc-Team auch auf StackOverflow befindet, damit er Ihnen weitere Informationen zur Roadmap geben kann.

1

Wie Fematich sagte, wird es leider noch nicht unterstützt. Wie auch immer, Datalab is open source, wenn Sie möchten, können Sie die Docker-Datei ändern, um pyspark hinzuzufügen und ein eigenes Bild zu erstellen. Sie können auch eine Pull-Anfrage senden, wenn Sie denken, dass dies auch für andere interessant sein könnte.

Verwandte Themen