Ich lade Spark mit einem Intellij-Projekt ohne installierten Spark.Die Datenquelle konnte nicht gefunden werden: com.databricks.spark.xml. Pakete finden Sie unter http://spark.apache.org/third-party-projects.html
val spark = SparkSession.builder().config(sparkConf).getOrCreate()
hinzugefügt `ve com.spark.databricks.xml durch Funken mit
sparkConf.set("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setExecutorEnv("spark.driver.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.set("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setExecutorEnv("spark.executor.extraClassPath", "C:/.../spark-xml_2.11-0.4.1.jar")
sparkConf.setJars(Array("C:/.../spark-xml_2.11-0.4.1.jar" ))
und mit
spark.sparkContext.addJar("C:/.../spark-xml_2.10-0.2.0.jar")
aber bei dem Versuch, spark.read.format ("com.databricks.spark.xml")
ich die Ausnahme zu verwenden, erhalten„Fehler um die Datenquelle zu finden: com.databricks.spark.xml. Pakete finden Sie unter http://spark.apache.org/third-party-projects.html ".
Wie behebe ich das? Ich weiß, dass es empfehlenswert ist, Gläser mit Spark-Shell hinzuzufügen, aber ich habe keine Funkenschale, da ich keine Funken installiert habe ...
Ja, ich habe es in meinem maven. Ich denke, das Jar muss zu SparkContext selbst hinzugefügt werden, und maven/sbt fügt es nur zu meinem Projekt hinzu – fmish