Wie überwache ich die Lernrate von AdamOptimizer? In TensorBoard: Visualizing Learning wird gesagt, dass IWie wird die Lernrate zu Zusammenfassungen hinzugefügt?
benötigen jeweilsDiese sammeln durch scalar_summary ops zu den Knoten, die Ausgangs die Lernrate und den Verlust zu befestigen.
Wie kann ich das tun?
Aber die Lernrate von Adam ist konstant ... Adam berechnet einige Gradientenstatistiken und ändert die Schrittgröße basierend auf der Lernrate und diesen Statistiken. – sygi
Ja, Sie schreiben, tatsächlich brauche ich die Handlung der Schrittgröße. – Mtr