Ich benutze IDEA15 und möchte der Funkenquelle ein neues Modul hinzufügen.Wie fügt man der Spark-Quelle ein neues Modul hinzu und lässt es in Spark-Shell arbeiten?
Ich klickte auf Datei-> Neu-> Modul und wählte ein Maven-Modul. Dann setze ich die Option "Als Modul hinzufügen zu ..." und die "Eltern" auf "Spark Project Parent POM". Nachdem ich den Modulnamen eingegeben hatte, klickte ich auf "Finish".
Dann habe ich einige Code auf mein neues Modul und bauen es den follwing Befehl
"build/mvn -Pyarn -Phadoop-2.4 -Dhadoop.version = 2.4.0 -DskipTests sauber Paket"
mitDas Projekt wurde erfolgreich erstellt, aber in der Spark-Shell kann ich meine neu hinzugefügten Klassen nicht importieren.
Ich frage mich, was ist falsch mit dem, was ich getan habe und wie kann ich ein neues Modul hinzufügen und dann in der Spark-Shell importieren?
Vielen Dank!
PS: Ich bin mir sicher, dass es keinen Problem mit meinem Code gibt. Ich habe meinen Code im mllib-Modul hinzugefügt und es hat funktioniert. Vielleicht fehlt eine Abhängigkeit, aber ich weiß nicht, wie ich das beheben kann.
Ich spezifiziere --jars Argument und jetzt funktioniert es! Danke vielmals! – BetaGo
Es ist mein erstes Mal, Fragen zu Stackoverflow zu stellen. Tut mir leid, dass ich dich nicht angenommen habe ... Jetzt ist es erledigt :) – BetaGo