Ich versuche, einen AdamOptimizer für einen Trainingsschritt ohne Erfolg auszuführen.Optimierer gibt keine zurück
optimizer = tf.train.AdamOptimizer(learning_rate).minimize(cost)
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
_, cost_value = sess.run(optimizer, feed_dict={X:X_data, Y: Y_data})
In dem Code, sind die Kosten eine gut definierte Funktion einen conv NN sowie eine logistische Verlustfunktion unter Verwendung von zwei Parametern X, Y (der Eintritt des NN und die Ausbildung Etiketten bzw.)
Implementierung Als Ich renne das, die Konsole informiert mich, dass der Lauf zurückkehrt. Keine als Ausgabe, was mich verblüfft, da ich erwartet habe, dass es mir die Kosten zurückgibt.
Was mache ich falsch?