Ich versuche pyspark zu MongoDB mit diesem (läuft auf Databricks) zu verbinden:PySpark MongoDB/java.lang.NoClassDefFoundError: org/Apache/Funken/SQL/Dataframe
from pyspark import SparkConf, SparkContext
from pyspark.mllib.recommendation import ALS
from pyspark.sql import SQLContext
df = spark.read.format("com.mongodb.spark.sql.DefaultSource").load()
aber ich diesen Fehler
java.lang.NoClassDefFoundError: org/apache/Funken/sQL/Dataframe
ich bin mit spark-2.0 und Mongo-Funken-Stecker 2.11 und definiert spark.mongodb.input.uri und spark.mongodb.output .uri
eigentlich verwende ich Databricks und ich habe bereits Spark definiert, ich bekomme '', wenn ich print spark ausführen –
Pierre