Ich habe versucht, ein sehr einfaches Scala-Skript mit Funkenabhängigkeiten zu bauen. Aber ich bin nicht in der Lage, das Glas daraus zu machen.Auflösen von Funkenabhängigkeiten mit sbt
Der Fehler generiert:
sbt.ResolveException: ungelöste Abhängigkeit: org.apache.spark # Funken core_2.12; 1.6.0-SNAPSHOT: nicht
Mein Build gefunden. sbt:
import Dependencies._
lazy val root = (project in file(".")).
settings(
inThisBuild(List(
organization := "com.example",
scalaVersion := "2.12.1",
version := "0.1.0-SNAPSHOT"
)),
name := "Hello",
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT",
resolvers += Resolver.mavenLocal
)
`
package example
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object Hello {
def main(args: Array[String]) {
val logFile = "/Users/dhruvsha/Applications/spark/README.md"
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println(s"Lines with a: $numAs, Lines with b: $numBs")
sc.stop()
}
}
Meine Quelle scala ist in:
/exampleapp/main/scala/example/Hello.scala
Projektname ExampleApp ist.
scala Version 2.12.2
Funken Version 1.6.0
sbt Version 0.13.13
Jede Art von Hilfe geschätzt wird und wäre toll, wenn Sie zur Verfügung stellen könnte Ressourcen zum Erlernen von sbt und Funkenabhängigkeiten.
Bitte sehen Sie, ich bin neu zu scala, Funken und sbt.
es funktionierte gut. Können Sie herausfinden, was darin falsch ist, was sind 2.10 und 1.6.0 hier und warum muss ich diese hinzufügen? Bitte sehen Sie, ich bin wirklich neu und es wäre großartig, wenn Sie mir einige Ressourcen für das Lernen über sbt geben könnte. – dhruvsharma
Wenn Sie das [maven dependency repo] (https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.10/1.6.0) besuchen, können Sie das Abhängigkeitsformat unter der Registerkarte sbt sehen. "org.apache.spark" ist die groupId, "spark-core_2.10" ist artifactId und "1.6.0" ist die Revision. Sie können [sbt-Referenz] (http://www.scala-sb.org/0.13/docs/Library-Management.html) –
Kann jemand erklären, warum es ein Downvote? –