Ich versuche, die Sparksession/Spark Kontext Standardkonfigurationen zu überschreiben, aber es ist die gesamte Knoten/Cluster-Ressource auswählen.spark 2.1.0 Sitzungskonfigurationseinstellungen (pyspark)
spark = SparkSession.builder
.master("ip")
.enableHiveSupport()
.getOrCreate()
spark.conf.set("spark.executor.memory", '8g')
spark.conf.set('spark.executor.cores', '3')
spark.conf.set('spark.cores.max', '3')
spark.conf.set("spark.driver.memory",'8g')
sc = spark.sparkContext
Es funktioniert gut, wenn ich die Konfiguration in Funken einreichen setzen
spark-submit --master ip --executor-cores=3 --diver 10G code.py
Was ist der Ressourcenmanager? Spark Standalone/YARN – mrsrinivas
Spark Standalone – Harish
Andere Möglichkeit mit 2.0 ist 'conf = (SparkConf(). Set (" spark.executor.cores "," 3 ")); spark = SparkSession.builder .master ("ip"). conf (conf = conf) .enableHiveSupport() .getOrCreate() ' – mrsrinivas