2017-12-05 1 views
0

Ich möchte mein Modell am Ende jeder Epoche von diesem linktensorflow restauriert (von gespeichert) Modell erhalten langsamer nach einigen Epochen

ich es auf diese Weise tat sparen:

speichern:

model_dir = "{0}/epoch_{1}/res".format(train_dir, epoch_num) 
saver.save(sess, model_dir, global_step=global_step_val) 

wieder her:

for ep_num in range(num_epochs): 
     model_dir = "{0}/epoch_{1}/".format(train_dir, epoch_num) 
     model_meta_file_name = [each for each in 
     os.listdir(model_dir) if each.endswith('.meta')][0] 
     meta_path="{0}/{1}".format(model_dir, model_meta_file_name) 
     saver = tf.train.import_meta_graph(meta_path) 
     saver.restore(sess, tf.train.latest_checkpoint(model_dir)) 

und weiterhin mein Modell die Bewertung mit Bewertungsdaten.

aber nach 7-8 Epochen, meine Bewertungsprozess wird sehr langsam, ich denke, ich spare einige zusätzliche Dinge, und nach einigen Epochen ist mein Diagramm sehr groß. Wie löse ich das?

einen Punkt: gpu Nutzung ist fast Null während dieser Auswertung process.I nach einigen Epochen her irgendeinem Grund denken, mein Prozess tut auf GPU nur

Antwort

0

saver = tf.train.import_meta_graph(meta_path)

Diese Zeile einmal sollte noyt laufen laufen . Sie nennen es in jeder Epoche, und das fügt neue Graphen hinzu, so dass die Auswertung langsamer wird.

+0

@ Siyuan Ren so ist es nicht notwendig, mehrere Meta-Grafik zu speichern? Man ist genug –

Verwandte Themen