Ich habe ein Upgrade 2.0 von 1,4 Spark und heruntergeladen die EC2-Verzeichnis von github.com/amplab/spark-ec2/tree/branch-2.0Einführung pyspark IPython Notebook auf EC2
Um einige Cluster spin up Ich gehe zu mein EC2-Verzeichnis und diese Befehle ausführen:
./spark-ec2 -k <keypair> -i <key-file> -s <num-slaves> launch <cluster-name>
./spark-ec2 -k <keypair> -i <key-file> login <cluster-name>
ich habe meinen Cluster und ich bin in Master angemeldet, aber ich weiß nicht, wie ein pyspark Notebook zu starten. Mit 1,4 Funken werde ich den Befehl
IPYTHON_OPTS="notebook --ip=0.0.0.0" /root/spark/bin/pyspark --executor-memory 4G --driver-memory 4G &
laufen und ich habe meinen Notebook und läuft gut, aber mit Spark-2.0 gibt es kein ist/pyspark Verzeichnis. Kann mir jemand helfen?
Bedeutet das, dass ich die Zeilen exportieren muss PYSPARK_DRIVER_PYTHON = ipython Export PYSPARK_DRIVER_PYTHON_OPTS = "Notebook" zu meinem .bash_profile? – jakko
Kurze Antwort Ja, aber bitte sehen Sie meine bearbeitete Antwort mit einem Link, der Sie Schritt für Schritt führt. Nehmen Sie, was Sie brauchen, ignorieren Sie den Rest. – user7351608