Ich versuche, das SparkPi.scala Beispielprogramm in Netbeans auszuführen. Leider bin ich Spark neu und konnte es nicht erfolgreich ausführen.Ausführen von Apache Spark Beispielanwendung in IntelliJ Idee
Meine Präferenz ist, nur in Netbeans zu arbeiten und von dort auszuführen. Ich weiß, dass Funken auch von der Zündungskonsole ausgeführt werden können - ich ziehe es jedoch vor, diesen Ansatz nicht zu wählen.
Das ist mein build.sbt Dateiinhalt:
name := "SBTScalaSparkPi"
version := "1.0"
scalaVersion := "2.10.6"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.1"
Das ist mein plugins.sbt Dateiinhalt:
logLevel := Level.Warn
Dies ist das Programm, das ich auszuführen versuche:
import scala.math.random
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
/** Computes an approximation to pi */
object SparkPi {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Spark Pi")
val spark = new SparkContext(conf)
val slices = if (args.length > 0) args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt // avoid overflow
val count = spark.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x*x + y*y < 1) 1 else 0
}.reduce(_ + _)
println("Pi is roughly " + 4.0 * count/n)
spark.stop()
}
}
JDK-Version: 1.8.
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
16/03/25 07:50:25 INFO SparkContext: Running Spark version 1.6.1
16/03/25 07:50:26 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/03/25 07:50:26 ERROR SparkContext: Error initializing SparkContext.
org.apache.spark.SparkException: A master URL must be set in your configuration
at org.apache.spark.SparkContext.<init>(SparkContext.scala:401)
at SparkPi.main(SparkPi.scala)
16/03/25 07:50:26 INFO SparkContext: Successfully stopped SparkContext
Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration
at org.apache.spark.SparkContext.<init>
at SparkPi$.main(SparkPi.scala:28)
at SparkPi.main(SparkPi.scala)
Process finished with exit code 1
für jede Hilfe
Vielen Dank im Voraus:
Der Fehler, den ich bekommen, wenn Sie den Code auszuführen versucht, wird unten gegeben.
Haben Sie die Fehlermeldung gelesen: "In Ihrer Konfiguration muss eine Master-URL eingestellt sein". Ist eine Master-URL in Ihrer Konfiguration festgelegt? –
Danke für die Rückmeldung. Ich bin mir nicht sicher, welche Master-URL für die Hadoop-Installation festgelegt werden soll. Benutzt Spark dann Hadoop? Vielen Dank! – TJVR
Mögliches Duplikat von [So legen Sie die Master-Adresse für Funke 1.X-Beispiele über die Befehlszeile fest] (http://stackoverflow.com/questions/24481399/how-to-set-master-address-for-spark1-x -examples-from-command-line) – eliasah