2016-09-15 7 views
3

Ich habe ein trainiertes Modell, das ich in einer Python-Anwendung verwenden möchte, aber ich kann keine Beispiele für die Bereitstellung in der Produktionsumgebung sehen, ohne TensorFlow zu installieren oder gRPC-Dienst zu erstellen. Ist es überhaupt möglich? Was ist der richtige Ansatz in dieser Situation?Serve Tensorflow-Modell ohne Tensorflow zu installieren

+1

"Modell" ist eine Klartext- oder Binärbeschreibung eines Berechnungsgraphen und eines Satzes vorberechneter Parameter für diesen Graphen. Wie stellen Sie sich vor, das Modell ohne eine Bibliothek auszuführen, die Operationen dieses Graphen implementiert? – Drop

+0

Vielleicht mit einer Art Objektserialisierung? –

Antwort

2

Wie möchten Sie es servieren, wenn Sie TensorFlow selbst oder TensorFlow nicht verwenden? Planen Sie die TensorFlow-Operationen neu zu implementieren, um dieselbe Semantik zu erhalten?

Mit XLA gibt es jetzt eine Möglichkeit, ein TensorFlow-Modell in eine Binärdatei zu kompilieren, die aus C++ aufgerufen werden kann. Ein Beispiel finden Sie in the documentation on tfcompile.

+0

Danke. Ich kannte diese Funktion nicht. Die Links sollten https://www.tensorflow.org/performance/xla/tfcompile sein –

Verwandte Themen