2017-06-04 4 views
1

Ich habe versucht, ein sehr einfaches Scala-Skript mit Funkenabhängigkeiten zu bauen. Aber ich bin nicht in der Lage, das Glas daraus zu machen.Auflösen von Funkenabhängigkeiten mit sbt

Der Fehler generiert:

sbt.ResolveException: ungelöste Abhängigkeit: org.apache.spark # Funken core_2.12; 1.6.0-SNAPSHOT: nicht

Mein Build gefunden. sbt:

import Dependencies._ 

    lazy val root = (project in file(".")). 
    settings(
       inThisBuild(List(
           organization := "com.example", 
           scalaVersion := "2.12.1", 
           version  := "0.1.0-SNAPSHOT" 
          )), 
       name := "Hello", 
       libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT", 
       resolvers += Resolver.mavenLocal 
       ) 

`

package example 
import org.apache.spark.SparkContext 
import org.apache.spark.SparkContext._ 
import org.apache.spark.SparkConf 

object Hello { 
    def main(args: Array[String]) { 
      val logFile = "/Users/dhruvsha/Applications/spark/README.md"     
      val conf = new SparkConf().setAppName("Simple Application") 
      val sc = new SparkContext(conf) 
      val logData = sc.textFile(logFile, 2).cache() 
      val numAs = logData.filter(line => line.contains("a")).count() 
      val numBs = logData.filter(line => line.contains("b")).count() 
      println(s"Lines with a: $numAs, Lines with b: $numBs") 
      sc.stop() 
     } 
} 

Meine Quelle scala ist in:

/exampleapp/main/scala/example/Hello.scala

Projektname ExampleApp ist.

scala Version 2.12.2

Funken Version 1.6.0

sbt Version 0.13.13

Jede Art von Hilfe geschätzt wird und wäre toll, wenn Sie zur Verfügung stellen könnte Ressourcen zum Erlernen von sbt und Funkenabhängigkeiten.

Bitte sehen Sie, ich bin neu zu scala, Funken und sbt.

Antwort

0

Die library dependencies Linie in build.sbt falsch scheint

korrekt sein sollte als

libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.0" 
+0

es funktionierte gut. Können Sie herausfinden, was darin falsch ist, was sind 2.10 und 1.6.0 hier und warum muss ich diese hinzufügen? Bitte sehen Sie, ich bin wirklich neu und es wäre großartig, wenn Sie mir einige Ressourcen für das Lernen über sbt geben könnte. – dhruvsharma

+0

Wenn Sie das [maven dependency repo] (https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/1.6.0) besuchen, können Sie das Abhängigkeitsformat unter der Registerkarte sbt sehen. "org.apache.spark" ist die groupId, "spark-core_2.10" ist artifactId und "1.6.0" ist die Revision. Sie können [sbt-Referenz] (http://www.scala-sb.org/0.13/docs/Library-Management.html) –

+2

Kann jemand erklären, warum es ein Downvote? –

Verwandte Themen