Ich verwende Distributed Tensorflow mit dem CIFAR10-Beispiel mit bis zu 128 Arbeitern und 1 Parameter-Server.Wie werden Trainingsdaten "Chargen" an Mitarbeiter in Tensorflow verteilt?
Ich frage mich, ob die FLAGS.batch_size die Größe jedes an JEDEN Arbeiter gesendeten Stapels bestimmt, oder ob diese FLAGS.batch_size die Größe jedes an ALLE Arbeiter gesendeten Stapels bestimmt?
Dieser Unterschied hat Auswirkungen auf die Leistung, da das Aufteilen eines Stapels auf zu viele Worker zu viel Kommunikation und zu wenig Berechnung führen kann.