2017-07-16 4 views
0

I ALS in Spark-mllib bu lerne, wenn ich versuche Bewertung zu erstellen, um ALS.train zu geben habe ich diesen FehlerScala Funken MLLib NoClassDefFoundError

Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/mllib/recommendation/Rating 
at java.lang.Class.getDeclaredMethods0(Native Method) 
at java.lang.Class.privateGetDeclaredMethods(Class.java:2625) 
at java.lang.Class.getMethod0(Class.java:2866) 
at java.lang.Class.getMethod(Class.java:1676) 
at com.intellij.rt.execution.application.AppMain.main(AppMain.java:126) 
Caused by: java.lang.ClassNotFoundException: org.apache.spark.mllib.recommendation.Rating 
at java.net.URLClassLoader$1.run(URLClassLoader.java:359) 
at java.net.URLClassLoader$1.run(URLClassLoader.java:348) 
at java.security.AccessController.doPrivileged(Native Method) 
at java.net.URLClassLoader.findClass(URLClassLoader.java:347) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:425) 
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:312) 
at java.lang.ClassLoader.loadClass(ClassLoader.java:358) 
... 5 more 

Process finished with exit code 1 

Ich benutze sbt 0.13.15, Scala 2.10 0,4, Funkenkern 2.10 Funken mllib 2.10 versucht sowohl Java 7 und 8

habe ich falsch gemacht, etwas?

+0

Versuchen zu lösen, um es ein anderes Paket Import org.apache.spark.ml.recommendation.ALS.Rating – user7294900

+0

das Ergebnis immer noch das gleiche frm zu importieren, NoClassDefFoundError –

+0

Welche Version von Funken Abhängigkeiten nicht wahr? Was Sie geteilt haben, ist nur die Scala-Version dieser Spark-Abhängigkeiten? – eliasah

Antwort

0

fand ich die Lösung für meinen Fall

die Sache ist, ich versuche, diese Funken mit IntelliJ IDE auszuführen, und ich fand, dass in meinem Build.sbt habe ich so etwas Abhängigkeiten verwenden

libraryDependencies ++= Seq("org.apache.spark" % "spark-core_2.10" % "2.1.0" , "org.apache.spark" % "spark-mllib_2.10" % "2.1.0" % "provided")

das Problem ist bei "provided" i dies "compile" ändern sollte, wenn ich versuche, mit IntelliJ zu laufen sonst werde ich Fehler wie die

0

Yep sehen, entfernen Sie einfach die mitgelieferte wird das Problem

libraryDependencies ++= Seq("org.apache.spark" % "spark-core_2.10" % "2.1.0" , 
"org.apache.spark" % "spark-mllib_2.10" % "2.1.0") 
Verwandte Themen