2017-05-23 3 views

Antwort

1

Sie einen Workflow wie versuchen:

#obtain the checkpoint file 
checkpoint_file= tf.train.latest_checkpoint("./log") 

#Construct a model as such: 
with slim.arg_scope(mobilenet_arg_scope(weight_decay=weight_decay)): 
      logits, end_points = mobilenet(images, num_classes = dataset.num_classes, is_training = True, width_multiplier=width_multiplier) 

#Obtain the trainable variables and a saver 
variables_to_restore = slim.get_variables_to_restore() 
saver = tf.train.Saver(variables_to_restore) 

#Proceed to create your training optimizer and predictions monitoring, summaries etc. 
... 

#Finally when you're about to train your model in a session, restore the checkpoint model to your graph first: 

with tf.Session() as sess: 
    saver.restore(sess, checkpoint_file) 
    #...Continue your training 

Grundsätzlich müssen Sie die richtigen Variablen wiederhergestellt werden erhalten, und diese Variablen müssen Namen haben, die denen in Ihrem Prüfpunktmodell entsprechen. Übergeben Sie anschließend die Liste der wiederherzustellenden Variablen an einen Saver, und lassen Sie dann den Sparer in einer TF-Sitzung alle Variablen von einem Prüfpunktmodell in der Sitzung wiederherstellen.

Verwandte Themen