2017-03-24 3 views
1

enter image description here k.imgur.com/r8NIv.pngFunken Shuffle Lesezeit

enter image description here

ich harte Zeit habe Verarbeitung dieser Informationen von Spark-UI. Der Executor, der die geringste Funke-Shuffle-Lesegröße/-Datensätze aufweist, benötigt die maximale Zeit zum Lesen der Shuffle-Blöcke, wie in den Bildern gezeigt. Ich verstehe nicht, ob dies ein Code-Problem ist oder ob es sich um einen Datenknoten handelt.

Antwort

0

Vielleicht wird es nicht nur durch die Shuffle-Lesegröße verursacht, es gibt viele Faktoren, die die Shuffle-Zeit beeinflussen, wie die Anzahl der Partitionen. Sie können versuchen, die Konfigurationsparameter über Shuffle zu ändern. shuffle-behavior