So arbeite ich an Apache Spark, da ich Spark-2.1.0 mit Scala verwenden möchten 2.10.6 ich den folgenden Befehl bin mit Funken HereErstellen Sie die Core-Dateien von Funken
./build/mvn -Pyarn -Phadoop-2.4 -Dscala-2.10 -DskipTests clean package
bauen gefunden Ich arbeite daran, einige Änderungen für mein Projekt an den Spark-Core-Dateien vorzunehmen (hauptsächlich SparkContext.scala). Jedes Mal, wenn ich etwas ändere, muss ich den Funken mithilfe des oben angegebenen Befehls neu aufbauen, was ziemlich viel Zeit in Anspruch nimmt. Selbst wenn ich einen einfachen Druck hinzufüge, muss ich es noch einmal neu aufbauen. Obwohl tun scheint so zu arbeiten, wie meine Änderungen sichtbar sind, wenn ich meine Funken Anwendung mit dem Befehl ausführen
spark-submit --master local[*] --driver-memory 256g --class main.scala.TestMain target/scala-2.10/spark_proj-assembly-1.0.jar
Jetzt sagt der Link Funken können Sie Module bauen, und ich finden Sie online den folgenden Befehl der Funkenkern zu bauen nur ,
/build/mvn -pl core clean package -DskipTests -Dscala-2.1
und es scheint, als Funken zu arbeiten stellt den Kern und zeigt mir Fehler, wenn ich welche haben, aber wenn ich meine Anwendung ausführen, ich sehe nicht, die Änderungen zur Laufzeit, keine Drucke I Show haben nicht oder irgendwelche Operationen, die ich anwende, sind auch nicht dort. Es ist wie mein Programm verwendet immer noch die Version von Spark, bevor ich nur die Kerndateien erstellen. Obwohl es scheint, dass der gesamte Funke funktioniert.
Kann mir jemand hier helfen, wie in was falsch, warum nur der Kern funktioniert nicht richtig funktioniert, oder verwende ich den falschen Befehl, wenn ja kann mir jemand sagen, wie genau nur die Kerndateien
bauen