Ich modifizierte die MLLIB in Spark und möchte das angepasste mllib Jar in anderen Projekten verwenden. Es funktioniert, wenn ich bauen Funke mit:Wie man Spark Mllib Submodul einzeln erstellt
build/mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package
gelernt von Spark Dokument http://spark.apache.org/docs/latest/building-spark.html#building-submodules-individually. Aber das gesamte Spark-Paket zu bauen, hat ziemlich lange gedauert (ungefähr 7 Minuten auf meinem Desktop), daher würde ich gerne nur das mllib selbst erstellen. Die Anweisung für ein Submodul in Spark-Gebäude ist auch aus dem gleichen Link und ich:
build/mvn -pl :spark-mllib_2.10 clean install
nur Mllib selbst zu bauen. Es wurde erfolgreich erstellt, aber ich konnte die Änderungen, die ich in der mllib vorgenommen habe, nicht sehen, wenn ich andere Projekte mit mllib ausführe. Während dies funktionierte, wenn ich den gesamten Spark von Grund auf neu erstellte, frage ich mich, wie ich Maven verwenden sollte, um den mllib individuell aufzubauen?