Ich habe die Standalone Spark Cluster
verwendet, um mehrere Dateien zu verarbeiten. Bei der Ausführung des Treibers wurden die Daten für jeden Worker mit seinen Kernen verarbeitet.Was ist der Unterschied zwischen SPARK Partitionen und Worker Cores?
Nun, ich habe über Partitions
, lesen, aber ich habe es nicht bekommen, wenn es anders ist als die Arbeiter Cores oder nicht.
Gibt es einen Unterschied zwischen cores number
und partition numbers
Einstellung?
Mögliche Duplikate von [Was sind Arbeiter, Ausführende, Kerne in Spark Standalone-Cluster?] (Http://stackoverflow.com/questions/32621990/what-are-workers-executors-cores-in-spark-standalone -Cluster) – arglee