Ich folgte dem ImageNet verteilte TF-Train Beispiel.Distributed Tensorflow-Parameter-Server und Arbeiter
Ich kann nicht verstehen, wie die Verteilung von Daten stattfindet, wenn dieses Beispiel auf 2 verschiedenen Arbeitern ausgeführt wird? Theoretisch sollten verschiedene Arbeiter den unterschiedlichen Teil der Daten sehen. Welcher Teil des Codes teilt auch die Parameter mit, die den Parameterserver weitergeben sollen? Wie im Multi-GPU-Beispiel gibt es einen expliziten Abschnitt für die 'cpu: 0'.