Ich habe eine Tensorflow Graph (ein neuronales Netz), innerhalb dessen ich diese Variable definiert haben:vermeiden zu minimieren, wenn das Modell bewerten ist tensorflow
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(Joint_Loss)
, wenn ich mein Diagramm füttern unter Verwendung des Verfahrens
Ich führe einen Schritt der Optimierung der Gewichte in der Grafik (Gewichte meines Netzes werden aktualisiert).
Nun, wenn ich nach dem vorherigen Anruf rufen eine andere Lauf mit der gleichen Grafik (das Optimierungsprogramm Variable hat), ohne Optimierer angeben als arg holt, wie folgt aus:
loss = sess.run([loss], feed_dict={x: batch_x,
y: batch_y,}
die Minimierung Schritt getan oder nicht (Gewichte werden aktualisiert)? und wenn es fertig ist, wie kann ich es mit Tensorflow Conditional Statement vermeiden?
also werden die Gewichtungen nur dann aktualisiert, wenn ich eine Arguere, die vom Optimierer abhängt, als eine Variable abruft? – sdrabb
Ja. Oder die Optimierung selbst. –