2016-04-06 12 views
0

Ich baue Apache Funken Quellcode in ubuntu 14.04.4 (Funken Version: 1.6.0 mit Scala Code runner Version 2.10.4) mit dem BefehlApache Spark-Build-Fehler

sudo sbt/sbt Montag

und der folgende Fehler bekommen,

[warnen] def deleteRecursively (dir: TachyonFile, Auftraggeber: TachyonFS) {
[warnen]^
[Fehler]
[Fehler] beim Kompilieren: /home/ashish/spark-apps/spark-1.6.1/core/src/main/scala/org/apache/spark/util/random/package.scala
[Fehler] während der Phase: jvm
[Fehler] Bibliothek Version: Version 2.10.5
[Fehler] Compiler-Version: Version 2.10.5
[Fehler] rekonstruierte args: -deprecation -Xplugin:/home/ashish /. ivy2/cache/org.spark-projekt/genjavadoc-plugin_2.10.5/jars/genjavadoc-plugin_2.10.5-0.9-spark0.jar -feature -P: genjavadoc: out =/home/ashish/spark-apps/spark- 1.6.1/core/target/java -classpath /home/ashish/spark-apps/spark-1.6.1/core/target/scala-2.10/classes:/home/ashish/spark-apps/spark-1.6.1 /launcher/target/scala-2.10/classes:/home/ashish/spark-apps/spark-1.6.1/network/common/ Ziel/scala-2.10/Klassen: /home/ashish/spark-apps/spark-1.6.1/network/shuffle/target/scala-2.10/classes: /home/ashish/spark-apps/spark-1.6.1/ unsafe/target/scala-2.10/Klassen: /home/ashish/.ivy2/cache/org.spark-project.spark/unused/jars/unused-1.0.0.jar: /home/ashish/.ivy2/cache/ com.google.guava/guava/bundles/guava-14.0.1.jar: /home/ashish/.ivy2/cache/io.netty/netty-all/jars/netty-all-4.0.29.Final.jar: /home/ashish/.ivy2/cache/org.fusesource.leveldbjni/leveldbjni-all/bundles/leveldbjni-all-1.8.jar:/home/ashish/.ivy2/cache/com.fasterxml.jackson.core/jackson- databind/bundles/jackson-databind-2.4.4.jar: /home/ashish/.ivy2/cache/com.fasterxml.jackson.core/jackson-annotations/bundles/jackson-annotations-2.4.4.jar:/home /ashish/.ivy2/cache/com.fasterxml.jackson.core/jackson-core/bundles/jackson-......und viele andere Gläser ...



[Fehler]
[Fehler] letzter Baum TYPER: Literal (Konstante (collection.mutable.Map))
[Fehler]
Symbol: null
[Fehler] Symboldefinition: null
[Fehler]
TPE: Klasse (classof [scala.collection.mutable.Map])
[Fehler]
Symbol Besitzer:
[error] Kontext Besitzer: package -> Paket zufällig
[Fehler]
[Fehler] == Enclosing Vorlage oder block ==
[Fehler]
[Fehler] Vorlage (// val: im Paket zufällig, tree.tpe = org.apache .spark.util.random.package.type
[Fehler]
"java.lang.Object" // Eltern
[Fehler] ValDef (
[Fehler]
privaten
[Fehler] "_"
[Fehler]
[Fehler]

[Fehler])
[Fehler] DefDef (// def(): org.apache.spark.util.random.package.type in Paket zufällige
[Fehler]
[Fehler] " "
[Fehler]
[]
[Fehler] Liste (Nil)
[Fehler] // tree.tpe = org.apache.spark.util.random.package.Typ
[Fehler]
-Block (// tree.tpe = Einheit
[Fehler] Nehmen (// def():. Objekt in der Object-Klasse, tree.tpe = Objekt
[Fehler]
package .super“ "// def(): Object in Klassenobjekt tree.tpe =() Object
[Fehler] Nil
[Fehler])
[Fehler]()
[Fehler])
[Fehler])
[Fehler ] )
[Fehler]
[Fehler] == Erweiterter Baumtyp ==
[Fehler]
[Fehler] ConstantType (Wert = Constant (collection.mutable.Map))
[Fehler]
[Fehler] abgefangene Ausnahme während der Kompilierung: java.io.IOException
[Fehler] Der Dateiname ist zu lang
[warnen] 45 Warnungen gefunden
[Fehler] zwei Fehler
[Fehler] (Kern gefunden/kompilieren: Kompilierung) Compilation fehlgeschlagen
[Fehler] Gesamtzeit: 5598 s, abgeschlossen 5. April 2016 09.06.50



Wo ich falsch bin immer?

Antwort