Tensorflow ermöglicht es uns, die Struktur des Modells unter Verwendung der Methode tf.train.write_graph zu speichern/zu laden, so dass wir es in Zukunft wiederherstellen können, um unsere Trainingseinheit fortzusetzen. Ich frage mich jedoch, ob dies erforderlich ist, weil ich ein Modul erstellen kann, z. B. GraphDefinition.py, und dieses Modul zum erneuten Erstellen des Modells verwenden kann. Also, was ist der bessere Weg, um die Modellstruktur zu speichern, oder gibt es eine Faustregel, die angibt, welchen Weg ich beim Speichern eines Modells verwenden soll?Modell in Tensorflow speichern
Antwort
Zuerst müssen Sie verstehen, dass Tensorflow Graph keine aktuellen Gewichte enthält (bis Sie sie dort manuell speichern) und wenn Sie die Modellstruktur aus graph.pb laden, starten Sie von Anfang an . Wenn Sie jedoch weiter trainieren oder Ihr trainiertes Modell verwenden möchten, müssen Sie den Prüfpunkt (mit tf Saver) mit den Werten der darin enthaltenen Variablen speichern, nicht nur die Struktur. Sehen Sie sich dieses Profil an: Tensorflow: How to restore a previously saved model (python)
Ja. Ich verstehe, dass ich tf.Saver verwenden muss, um das Gewicht zu sparen. Was ich nicht bekommen konnte ist, dass es notwendig ist, die Modellstruktur in der graph.pb zu speichern und den Graphen aus dieser Datei neu zu laden oder sollte ich den Graphen selbst erstellen? – user3425082
Sie sollten die gleichen Namen (nicht Python \ C++ Namen, aber tf, dh: a = tf.Variable (Wert, Name = 'definieren-tf-Name-hier'))) für wichtige Ops und Variablen in Grafik und Checkpoint Datei, um Werte korrekt zu laden, aber wie Sie das bekommen - liegt ganz bei Ihnen. Das Speichern und Wiederherstellen der Grafikdefinitionsdatei oder das erneute Erstellen der Grafikdefinitionsdatei mit Code funktioniert. –
- 1. Tensorflow-Modell in Datei speichern
- 2. Speichern und laden Tensorflow Modell
- 3. So speichern und verwenden Tensorflow Minist Modell
- 4. Problem mit Tensorflow speichern und wiederherstellen Modell
- 5. TensorFlow: Quantize Modell vor mit Python speichern
- 6. Partiell wiederherstellen Modell in Tensorflow
- 7. Load exportiert Modell in TensorFlow
- 8. Tensorflow FailedPreconditionError beim Versuch, gefrorenes Modell zu speichern
- 9. So speichern Sie ein DNN-Modell mit Tensorflow
- 10. tensorflow 0.9 skflow Modell speichern und wiederherstellen funktioniert nicht
- 11. TensorFlow/Keras Multithread-Modell
- 12. Tensorflow-Modell in Google Cloud Storage exportieren
- 13. Tensorflow LSTM Modell Test
- 14. Tensorflow Wiederverwendung rnn_seq2seq Modell
- 15. Tensorflow Modell Zoo?
- 16. Tensorflow: Feinabstimmung Inception Modell
- 17. Tensorflow speichern und laden
- 18. Trainiertes Tensorflow-Modell in Protobuf konvertieren
- 19. Tensorflow Zug Modell auf Server
- 20. Nachladen Tensorflow-Modell
- 21. Tensorflow Warnung beim Speichern SparseTensor
- 22. NotFoundError bei Wiederherstellung Tensorflow-Modell
- 23. Speichern von Bilddateien in Tensorflow
- 24. Speichern spezifischen Gewichte in TensorFlow
- 25. Beobachten tensorflow rnn Modell Gewichte
- 26. Train-Modell mit Warteschlange Tensorflow
- 27. Get Gewichte von Tensorflow-Modell
- 28. TensorFlow: Speichern von Verzerrungen in der Grafikdefinition
- 29. Tensorflow-Modell mit benutzerspezifischen Daten
- 30. tensorflow: Speichern und Wiederherstellen Sitzung
Können Sie ein Codebeispiel angeben? Oder weitere Informationen? Ich verstehe nicht, warum das Erstellen eines Moduls wichtig ist, um die Gewichte eines TensorFlow-Modells zu speichern. Sie können immer den gesamten Graphen speichern (auf die Größe schauend, gibt es einige Overhead, denke ich) oder spezifizieren, welche Gewichtungen gespeichert werden sollten. Trotz des verwendeten Speichers gibt es keinen großen Unterschied. – daniel451