Ich benutze eine Warteschlange, die von einem Anruf tf.train.shuffle_batch
für Training in TensorFlow zurückgegeben wird. Ich hatte angenommen, dass TF den nächsten Stapel vorlesen würde, während Berechnungen mit dem aktuellen Stapel auf der GPU durchgeführt würden. Dh, stellte ich eine Strömung wie diesesUnbenutztes Potiential für Parallelisierung
- Last Charge A auf CPU
- Verwendung Charge A auf GPU, während Lade Charge B auf CPU
- Verwendung Charge B auf GPU, während Lade batch C auf CPU
- ...
jedoch an der Verfolgungsausgabe suchen, dies scheint nicht der Fall zu sein:
Für die meisten der QueueDequeueMany
Betrieb ist die GPU im Leerlauf.
Ist etwas, was ich mir mit TensorFlow überhaupt vorstellen kann und wenn ja: Was mache ich falsch?
Nizza, Dank für den Link! Ich schaue es mir später noch einmal an – fabian789