In Distributed Tensorflow konnten wir mehrere Clients mit Arbeitern in Parameter-Server-Architektur ausführen, die als "Between-Graph Replication" bekannt ist. Gemäß der DokumentationKann ein einzelner CPU-Kern mit mehreren Clients mit Distributed Tensorflow arbeiten?
Zwischen-Grafik-Replikation. Bei diesem Ansatz gibt es einen separaten -Client für jede/job: worker-Aufgabe, normalerweise im selben Prozess wie die -Worker-Aufgabe.
es sagt, dass der Client und der Arbeiter in der Regel in demselben Prozess sind. Wenn sie sich jedoch nicht im selben Prozess befinden, kann die Anzahl der Clients nicht der Anzahl der Mitarbeiter entsprechen? Können mehrere Clients denselben CPU-Kern gemeinsam nutzen und ausführen?