2017-09-19 3 views
0

Ich benutze Tensorflow tf.estimator API für den Aufbau eines breiten linearen Modells und einer tiefen Vorwärts-neuronalen Netzwerk, die gemeinsam trainiert werden. Das trainierte Modell wurde auf der Festplatte gespeichert, und die Vorhersagen werden durch Wiederherstellen des gespeicherten Modells erstellt. Die Echtzeit-Vorhersagen werden mithilfe der Vorhersagefunktion der tf.estimator-API erstellt, die das Modell bei jedem Aufruf erneut lädt, was sehr langsam ist. Gibt es einen Mechanismus, der verhindert, dass das Modell zum Beispiel neu geladen wird: das Modell für aufeinanderfolgende Aufrufe im Speicher zu behalten?tf.contrib.learn.estimator jeder Aufruf zur Vorhersage() lädt das Modell

+0

ich auch bei der gleichen Ausgabe steckte zu arbeiten, wo Sie in der Lage eine Lösung dafür zu finden? –

Antwort

Verwandte Themen