0
Im Tensorflow führt tf.train.GradientDescentOptimizer eine Gradientenabsenkung für alle Variablen im Standard aus. Kann ich nur für einige meiner Variablen Gradientenabstieg durchführen und die anderen "sperren"?So führen Sie den Gradientenabstieg für nicht alle Variablen im Tensorflow durch
Kann ich die Variablen aus trainierbar ändern, um nicht trainierbar diejenigen verwenden kann? Ich baue ein Modell mit einigen Parametern W und Eingaben X, nachdem ich das W trainiere, möchte ich, dass diese W repariert werden und X zu neuen Variablen werden, um etwas im Inneren des Modells zu maximieren, was kann ich tun? Könnte ich das Modell einfach neu aufbauen, indem ich ein neues W als nicht trainierbar und ein neues X als trainierbare Variablen belasse, so dass ich den Gradientenabstiegsoptimierer verwenden könnte, um diese Xs zu trainieren? – zzitaI
Ja, erstellen Sie einfach ein neues Diagramm und eine neue Sitzung und initialisieren Sie die neuen Variablen mit den vorherigen Diagramm-Ergebnissen. – fabrizioM