Ich möchte eine alternierende Update-Regel mit Keras verwenden. I.e. pro Batch möchte ich einen normalen gradientenbasierten Schritt aufrufen und anschließend einen benutzerdefinierten Schritt aufrufen.Eine benutzerdefinierte alternierende Update-Regel mit Keras
Ich überlegte, es zu implementieren, entweder erben ein Optimierer oder ein Rückruf (und die On-Batch-Aufrufe verwenden). Das würde aber auch nicht funktionieren, da beide Chargendaten und Chargenetiketten fehlen (und ich brauche beides).
Haben Sie eine Idee, wie Sie ein alternatives Update mit Keras implementieren?
Bei Bedarf ich nicht direkt aufrufen tensorflow spezifischen Methoden nichts, solange ich Gebrauch das Projekt mit dem keras Rahmen gewickelt halten können (mit model.fit, model.predict ..)