2017-11-19 7 views
1

Ist es möglich, Checkpoints zu markieren, die nicht gelöscht werden sollen?Einen bestimmten TensorFlow-Checkpoint in der Zeit speichern

Ein wenig Kontext:

Ich schaffe eine Verstärkung Modell lernen, und ich möchte, dass meine beste Modell während des Trainings speichern. Um das zu erreichen, behalte ich die beste Punktzahl und wann immer es aktualisiert wird, speichere ich zu diesem Zeitpunkt einen Checkpoint.

Leider werden meine Bestscore Checkpoints gelöscht. Ich verstehe, dass der Grund ist, dass TF nur die neuesten 5 Kontrollpunkte hält, und das ist in Ordnung.

Ich möchte nur die 5 letzten Checkpoints UND den besten Checkpoint, der nicht in den letzten fünf sein könnte. Gibt es eine Möglichkeit, dies zu tun, ohne alle Checkpoints zu speichern?

Danke euch allen!

Antwort

0

Betrachtet man die Ausgaben here und here, scheint dies eine angeforderte Funktion, die noch nicht implementiert ist. Sie können verhindern, dass alle Prüfpunkte gelöscht werden, indem Sie saver = tf.train.Saver(max_to_keep=0) verwenden. Wenn Sie etwas Großes machen, würde ich empfehlen, die Checkpoints nicht zu speichern, bevor eine angemessene Anzahl von Schritten vergangen ist, und nicht zu speichern, es sei denn, das aktuelle Ergebnis übertrifft das zuletzt gespeicherte Ergebnis um ein Minimum Menge.

Verwandte Themen