2017-10-05 4 views
0

Ich bin Funke auf meiner lokalen Windows-Maschine ausgeführt. Es funktioniert vollkommen in Ordnung, wenn ich Master als Local setze, aber wenn ich es einem Cluster-Master-URI gebe, löst es die folgende Ausnahme für jeden Executor aus, den es initiiert.
17/10/05 17:27:19 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20171005172719-0006/0 is now FAILED (java.lang.IllegalStateException: Library directory 'C:\Spark\bin\.\assembly\target\scala-2.10\jars' does not exist; make sure Spark is built.)

Ich habe Funke Standalone Umgebung lokal getestet. Also habe ich einen Masterknoten und einen Arbeiterknoten gestartet und die Master-URL meinem Treiberprogramm gegeben. Ich stellte sicher, dass meine Umgebungsvariable SPARK_HOME auf C:\Spark (der Ort, an dem ich meinen Funken platzierte) gesetzt wurde.

Jede Hilfe bei der Lösung dieses Problems wäre dankbar, Danke.Executors sind fehlgeschlagen in Spark-Standalone-Bereitstellung

+0

Können Sie den genauen Spark-Submit-Befehl mit Argumenten teilen? –

+0

spark-submit --class SparkApp --master spark: // {IP}: 7077 "D: \ work \ Beispiele \ SparkExample \ target \ SparkExample-0.0.1-SNAPSHOT.jar" – Rakesh

+0

Bitte fügen Sie Ihren Code und Spark- Befehl senden –

Antwort

0

Ich irgendwie gelang es, die Lösung für dieses Problem zu finden. Das Problem wird durch die Pfadvariable von spark home verursacht. Es wurde nicht (Umgebungsvariable) ausgewählt, wenn ich eine Pfadvariable %SPARK_HOME%\bin hinzugefügt habe. Ich habe dann diese Umgebungsvariable und die Pfadvariable entfernt, sie erneut hinzugefügt und mein System neu gestartet. ES FUNKTIONIERTE.

Verwandte Themen