2017-03-14 4 views
0

Ich bin neu zu funken und Java. Ich habe versucht, die Funkenumgebung in Eclipse mit Maven-Abhängigkeit einzurichten. Ich benutze Java 1.8 mit Scala 2.11.7. Ich habe ein Scala-Projekt in Eclipse erstellt und eine Maven-Abhängigkeit erstellt.Abhängigkeitsfehler beim Einrichten von Spark mit Java in der Sonnenfinsternis

<dependency> 
     <groupId>org.apache.spark</groupId> 
     <artifactId>spark-core_2.11</artifactId> 
     <version>2.1.0</version> 
</dependency> 

Jetzt bin ich einen Fehler als „Failure bekommen org.spark-project.spark übertragen: ungenutzt: jar: 1.0.0 von https://repo.maven.apache.org/maven2 wurde im lokalen Repository zwischengespeichert, die Auflösung nicht, bis die erneut versucht werden Das Aktualisierungsintervall von central ist abgelaufen oder Updates werden erzwungen. "

+0

Das Artefakt spark-core_2.11 existiert nicht, benutze spark-core_2.10 für das Artefakt – Adonis

Antwort

0

Ich bin auch neu. Diese Schritte arbeiten mit Eclipse, Scala 2.11, Maven und Spark: 1.- Erstellen Sie ein Maven-Projekt 2.- Verwenden Sie dieses POM als grundlegende Orientierung https://github.com/entradajuan/Spark0/blob/master/Spark0/pom.xml 3.- Konvertieren Sie das Projekt in Scala: Recht Buton-> configure-> konvertieren zu Scala 4.- Erstellen Sie dann ein Paket in src/main/java 5.- Erstellen Sie ein Scala-Objekt mit seiner def-Haupt in dem neuen Paket

Bis jetzt fange ich immer auf die gleiche Weise. Ich verwende Java nicht in meinen Projekten. Es funktioniert auch gut, wenn man maven build "clean install" startet, um jar zu bekommen.

+0

Juani: Danke, es hat geholfen. –

Verwandte Themen