Ich habe ein Cluster von Maschinen, die ich mit anderen Prozessen teilen muss. Sagen wir einfach, ich bin keine nette Person und möchte, dass meine Spark-Executor-Prozesse eine höhere Priorität haben als die Prozesse anderer Leute. Wie kann ich das einstellen?Gibt es eine Möglichkeit, die Nice-Einstellung von Spark-Executor-Prozessen einzustellen?
Ich bin mit Standalone-Modus, v2.01, auf RHEL7 laufen
[Der Standalone-Cluster-Modus unterstützt derzeit nur einen einfachen FIFO-Scheduler für alle Anwendungen.] (Https://spark.apache.org/docs/2.0.1/spark-standalone.html#resource-scheduling) –
I don ' t bedeuten eine Priorität gegenüber anderen Funkenanwendungen auf dem gleichen Master, ich meine andere Prozesse auf den Knoten. Zum Beispiel andere Prozesse, auf denen Anwendungen wie HTCondor ausgeführt werden. – ThatDataGuy
Eine Möglichkeit besteht darin, Kerne im Cluster zu überzeichnen. – mrsrinivas