Ich habe ein tiefes Netzwerk von vollständig verbundenen Schichten mit schlanken erstellt. Ich würde gerne das Netzwerk schrittweise trainieren - zuerst die erste Schicht optimieren, dann die zweite und so weiter. Lesen, ich sehe, dass dies mit tf.stop_gradient getan werden könnte, obwohl, wie man dies nicht klar ist. Vielleicht ist ein besserer Weg, die trainierbare Flagge in der Slim-Call zu verwenden - einfach alle außer der ersten Ebene falsch zu setzen. Unglücklicherweise würde dies erfordern, dass aufeinanderfolgende Schichten im Verlauf des Trainings allmählich auf "Wahr" gesetzt werden, wodurch sich der Graph ändert. Nicht sicher, ob das legal ist.Freeze Teile des neuronalen Netzes in Tensorflow
Meine Fragen: - sind diese vernünftigen Ansätze für das, was ich tun möchte? - kann jemand vorschlagen, wie jeder Ansatz zu implementieren?
Ich hatte eine [allgemeinere Version] (https://stackoverflow.com/questions/43681295/enable-and-di Sable-Learning-of-a-Variable-während-Training) dieser Frage, noch keine Antwort. Hoffentlich erleichtert die Tatsache, dass Sie Ihr Problem auf ein progressives, schichtweises Lernen beschränken, eine Lösung. – user1735003