2016-11-20 3 views
0

Ich habe vier GPU-Karten und CPU nicht machen, ein Bild schnell genug Vorverarbeitung für alle von ihnen. Die Warteschlangen sind schnell erschöpft und die meisten Zeitkarten sind inaktiv. Gibt es eine Möglichkeit, QueueRunner auf eine dieser vier GPU-Karten zu setzen, so dass eine Karte die Vorverarbeitung durchführt und die Warteschlange bildet, während drei andere das Modell tatsächlich trainieren?TensorFlow: Bildvorverarbeitung auf GPU

Antwort

0

Ja, sollte es möglich sein. Sie können die Vorverarbeitung Python-Funktion in tf.py_func wickeln, einen TF-op zu schaffen und es auf die gewünschte gpu setzen with tf.device("gpu:0"): verwenden, eine Warteschlange dort erstellen und die dequeue op auf dem anderen GPUs verwenden.

+0

Sind Sie sicher, dass das funktioniert? Ich denke, die Python-Funktion läuft noch auf der CPU, oder? –