Wenn eine Scala-Datei ausgeführt wird, der den Funken Dataset
Typ verwendet ich die folgende Stack-Trace erhalten:java.lang.ClassNotFoundException: org.apache.spark.sql.Dataset
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/Dataset
at java.lang.Class.getDeclaredMethods0(Native Method)
at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)
at java.lang.Class.privateGetMethodRecursive(Class.java:3048)
at java.lang.Class.getMethod0(Class.java:3018)
at java.lang.Class.getMethod(Class.java:1784)
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:125)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.Dataset
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 6 more
Ich finde das seltsam, denn ich habe der folgende Import:
import org.apache.spark.sql._
auch in meinem build.sbt
ich habe das zu libraryDependencies
hinzugefügt folgenden:
"org.apache.spark" %% "spark-core" % "1.6.2" % "provided",
"org.apache.spark" %% "spark-sql" % "1.6.2" % "provided",
Wie läuft das? Wenn Sie sich bei einem Cluster anmelden, ist es möglich, dass die Spark-Version dort nicht korrekt ist? –
wo fährst du das? Sie schließen die Spark-Kern- und SQL-Bibliotheken aus Ihrem Paket in Ihrer Build-Datei aus. – GameOfThrows