2016-04-19 5 views
2

enter image description hereEklipse (eingestellt mit scala envirnment): Object Apache ist kein Mitglied des Paket org

Wie im Bild gezeigt, das gibt Fehler, wenn i die Pakete am Funken importieren. Bitte helfen Sie. Wenn ich dort schwebe, wird "object apache ist kein Mitglied von package org" angezeigt. Ich suchte nach diesem Fehler, es zeigt Funken Gläser wurde nicht importiert. Also importierte ich auch "funken-assembly-1.4.1-hadoop2.2.0.jar". Aber immer noch gleicher error.Below ist das, was ich will eigentlich laufen:

import org.apache.spark.{SparkConf, SparkContext} 
object ABC { 

def main(args: Array[String]){ 
//Scala Main Method 

println("Spark Configuration") 

val conf = new SparkConf() 

conf.setAppName("My First Spark Scala Application") 

conf.setMaster("spark://ip-10-237-224-94:7077") 

println("Creating Spark Context") 
} 
} 
+0

Sie Funken Kern Glas in Ihrem Classpath hinzugefügt haben? –

+0

Eigentlich bin ich nicht genau was alle Gläser hinzufügen und an welchem ​​Ort sind sie auf Funken, von wo ich kopieren kann. Könnten Sie einfach führen? –

+0

Sie müssen einfach den Anweisungen in https://spark.apache.org/docs/1.2.0/quick-start.html folgen. –

Antwort

3

Hinzufügen spark-core Glas in Ihrem Classpath soll Ihr Problem beheben. Auch wenn Sie einige Build-Tools wie Maven oder Gradle verwenden (wenn nicht, sollten Sie, weil Spark-Core hat viele Abhängigkeiten und Sie würden so ein Problem für andere jars erhalten), versuchen Sie, Eclipse-Task von diesen Tools zur Verfügung gestellt zu verwenden Klassenpfad in Ihrem Projekt.

+0

ist dies das Glas, auf das Sie sich beziehen -> "/root/.m2/repository/org /apache/spark/spark-core_2.10/1.4.1/spark-core_2.10-1.4.1.jar "? Bitte helfen Sie –

+0

Ja, das ist das Glas. –

0

Wenn Sie dies im Kontext von Scala innerhalb eines Jupyter Notebooks tun, erhalten Sie diesen Fehler. Sie müssen den Apache Toree Kernel installieren:

https://github.com/apache/incubator-toree

und Ihre Notebooks mit diesem Kernel erstellen.

Sie haben auch die Jupyter Notebook beginnen mit:

pyspark 
Verwandte Themen