Ich habe einen TensorFlow Berechnungsgraphen für einen Verlust tensor L, der auf 2 tf.Variables, A und B hängtHalten Variablen konstant während Optimierer
Ich mag würde gradient Aufstieg auf Variablen A ausgeführt (A + = Steigung von L gegen A), während B fest gehalten wird, und umgekehrt - läuft der Gradientenanstieg auf B (B + = Gradient von L gegen B), während A fest gehalten wird. Wie mache ich das?
Danke - var_list sollte gut machen. Obwohl ich denke, es gibt einen Tippfehler - var_list sollte in die Argumente für minimize() statt GradientDescentOptimizer() gehen – ejang
Vielen Dank, bearbeitet das Code-Snippet. –