Ich versuche, mehrere Anwendungen auf Funken zu übermitteln.Mehrere Fehler von mehreren Jobs Fehler
Nachdem die erste Anwendung abgeschlossen wurde, weist Spark dem Treiber alle Worker-Knoten zu. Als Ergebnis sind keine Kerne für die Ausführung übrig.
Meine Umgebung: 2 Arbeiterknoten mit jeweils 1 Kern und 2 GB RAM, der Treiber läuft auf den Knoten.
Spark-Befehl einreichen: ./spark-submit --class Main --master spark://ip:6066 --deploy-mode cluster /jarPath
Also, wenn ich 3 Jobs übergeben, nach dem ersten Abschluss, zweite und dritte bekommt einen Kern jeder für ihre Fahrer und keine Kerne sind für die Ausführung links.
Bitte sagen Sie einen Weg, um dies zu beheben.
In welchem Modus laufen Sie? funken lokal/standalone/Garn-Client/Garn-Cluster? ** Bitte geben Sie den Spark-Submit-Befehl ein ** – Yaron
Läuft Ihr Treiber auf einem dieser 2 Arbeiterknoten? – Yaron
./spark-submit --class Haupt --master spark: // ip: 6066 --deploy-mode cluster/jarPath –