Wie könnte ich von Java (oder Scala) Code Anzahl der Executoren mit SparkConfig
und SparkContext
konfigurieren? Ich sehe ständig 2 Executoren. Sieht aus wie spark.default.parallelism
funktioniert nicht und geht über etwas anderes.Wie wird die Anzahl der Spark-Executoren festgelegt?
Ich muss nur die Anzahl der Executoren auf Clustergröße einstellen, aber es gibt immer nur 2 davon. Ich kenne meine Clustergröße. Ich laufe auf YARN, wenn das wichtig ist.
Die Eigenschaft spark.default.parallelism dient zum Reduzieren von Operationen wie join, reduceByKey, groupBy. – Rags