2016-07-11 10 views
0

Ich habe Java-Anwendung in der Entwicklungsphase. Und ich habe Remotefunkcluster im Cluster Standalone-Modus, der nur eine Maschine mit 2 Prozessorkernen enthält. "Cluster" enthält Master und einen Worker. Die Anwendung sendet Jobs mit langer Laufzeit, und Jobs erfordern keine CPU-Arbeit, sondern viele Aufrufe an Remote-Dienste. Mit anderen Worten benutze ich Funken wie Taskplaner. Während des Testens sehe ich, dass die Anwendung zum Beispiel 5 Aufgaben in der gleichen Zeit sendet, aber nur 2 können parallel arbeiten, weitere 3 sind in der Warteschlange. Frage ist es möglich, die Anzahl der parallelen Aufgaben in dieser Konfiguration mit einer Instanz mit 2 physischen Kernen zu erhöhen?Erhöhen Sie die Anzahl der parallelen Aufgaben im Standalone-Modus

+0

Haben Sie versucht, 'spark.executor.cores' auf einen höheren Wert zu setzen? – Dikei

+0

@Dikei Soll diese Eigenschaft auf meiner Anwendungsseite an JavaSparkContext übergeben werden? Wenn ich es mache, kann der Job nicht ohne Fehler gesendet werden. – Nawa

Antwort

0

Um die Anzahl der parallelen Aufgaben zu erhöhen, müssen Sie die physischen Kerne erhöhen. Da Sie 2 Kerne haben, laufen 2 Aufgaben parallel und andere 3 sind in der Warteschlange.

+0

Was ist, wenn Hyper Threading aktiviert ist? – kaza

Verwandte Themen