Ich muss die Verlusthistorie im Laufe der Zeit abrufen, um sie grafisch darzustellen. Hier ist mein Skelett Code:So erhalten Sie Verlustfunktionsverlauf mithilfe von tf.contrib.opt.ScipyOptimizerInterface
optimizer = tf.contrib.opt.ScipyOptimizerInterface(loss, method='L-BFGS-B',
options={'maxiter': args.max_iterations, 'disp': print_iterations})
optimizer.minimize(sess, loss_callback=append_loss_history)
Mit append_loss_history
Definition:
def append_loss_history(**kwargs):
global step
if step % 50 == 0:
loss_history.append(loss.eval())
step += 1
Wenn ich die ausführliche Ausgabe von ScipyOptimizerInterface
zu sehen, wird der Verlust tatsächlich im Laufe der Zeit verringern. Aber wenn ich loss_history
drucke, sind die Verluste im Laufe der Zeit fast gleich.
finden Sie im doc: https://www.tensorflow.org/api_docs/python/tf/contrib/opt/ScipyOptimizerInterface „Variablen unterliegen Optimierung sind an Ort und Stelle AM ENDE OPTIMIERUNG aktualisiert“. Ist das der Grund dafür, dass der Verlust unverändert ist?