Gibt es eine kanonische Methode, um einen Stateful LSTM usw. mit Tensorflow Serving zu erhalten?Tensorflow Serving - Stateful LSTM
Mit der Tensorflow-API direkt ist dies unkompliziert - aber ich bin mir nicht sicher, wie der persistente LSTM-Zustand zwischen den Aufrufen nach dem Export des Modells in Serving am besten erreicht werden kann.
Gibt es irgendwelche Beispiele, die das oben genannte erreichen? Die Beispiele innerhalb des Repos sind sehr einfach.
Link zum Thread der Mailingliste: https://groups.google.com/a/tensorflow.org/forum/#!topic/discuss/00tipdqxRZk – Russell