Ich versuche, Gläser automatisch in meinen PySpark-Klassenpfad aufzunehmen. Im Moment kann ich den folgenden Befehl ein und es funktioniert:Automatisches Einschließen von Gläsern in den PySpark-Klassenpfad
$ pyspark --jars /path/to/my.jar
Ich möchte, dass Glas standardmäßig enthalten haben, so dass ich nur pyspark
geben kann und es auch in IPython Notebook verwenden.
Ich habe gelesen, dass ich das Argument, indem PYSPARK_SUBMIT_ARGS in env umfassen kann:
export PYSPARK_SUBMIT_ARGS="--jars /path/to/my.jar"
Leider ist das oben nicht funktionieren. Ich bekomme den Laufzeitfehler Failed to load class for data source
.
Laufender Spark 1.3.1.
bearbeiten
Meine Abhilfe bei der Verwendung von IPython Notebook ist folgende:
$ IPYTHON_OPTS="notebook" pyspark --jars /path/to/my.jar
Ich bekomme einen Fehler: 'Py4JJavaError: Beim Aufruf von o28.load ist ein Fehler aufgetreten. : java.sql.SQLException: Kein geeigneter Treiber \t bei java.sql.DriverManager.getDriver (DriverManager.java:315) ' – FullStack
@FullStack mich auch, haben Sie eine Lösung gefunden? – thebeancounter