Ich erstelle ein Modell im Tensorflow mit allen Schichten Reluz als die Aktivierungsschicht. Wenn die Stapelgröße jedoch auf 500 erhöht wird, möchte ich das Modell so ändern, dass die vorletzte Ebene der Ausgabeschicht sigmoid Aktivierungsschicht hat.Ändern des Modells während des Trainings [Tensorflow]
Worüber ich verwirrt bin ist, dass ich alle Variablen neu initialisieren muss, da ich den Optimierer in der Mitte ersetze? Oder behalte ich die alten Variablen?
Sie können eine Bedingung für den Fluss verwenden. Aber Ihre Architektur wird nicht funktionieren, da die Gewichte für eine andere Funktion trainiert wurden, so dass das Ändern der Aktivierungsfunktion den Trainingsprozess grundsätzlich zurücksetzt. Tüftelst du herum oder hast du einen soliden theoretischen Hintergrund für diese Veränderung? – fabrizioM