2017-07-27 3 views
1

Ich führe eine TF-Anwendung für Inferenz mit bestimmten Modellen. Es läuft jedoch nicht auf GPU, sondern auf CPU, obwohl Tensorflow-Bibliothek mit CUDA aktiviert ist. Verfügt das Tensorflow-Modell (.pb) über Geräteinformationen wie tf.device (/ cpu: 0) oder tf.device (/ gpu: 0) ???Tensorflow-Modell (. Pb) verfügt über Geräteinformationen?

Antwort

2

Vom docs (Hervorhebung von mir):

Manchmal exportiert ein Meta-Graph ist von einer Schulungsumgebung, dass der Importeur nicht verfügt. Zum Beispiel könnte das Modell an GPUs oder in einer verteilten Umgebung mit Replikaten trainiert worden sein. Beim Importieren solcher Modelle ist es hilfreich, die Geräteeinstellungen in der Grafik löschen zu können, damit sie auf lokal verfügbaren Geräten ausgeführt werden kann. Dies kann erreicht werden, indem import_meta_graph mit clear_devices optionTrue aufgerufen wird.

with tf.Session() as sess: 
    new_saver = tf.train.import_meta_graph('my-save-dir/my-model-10000.meta', 
     clear_devices=True) 
    new_saver.restore(sess, 'my-save-dir/my-model-10000') 
Verwandte Themen