Ich habe angefangen, eine fast-rcnn in TF (VGG16 basiert) zu implementieren. Während ich lerne, habe ich Speicherprobleme, wenn ich versuche, mich über alle Ebenen hinweg zu verbreiten. Aber Test funktioniert gut. (Ich habe eine Gforce GTX 1060 mit 6G RAM)Wie wird die Rückausbreitung von Tensorflow implementiert? (Speicherprobleme)
Ich fragte mich, wie kommt? Benötigt TF Saves das zweimalige Speichern von Parametern für das Training?