Ich möchte den Tensorflow's Estimator verwenden, um das Training mit LSTM-Netzwerken zu vereinfachen. Offenbar tensorflow des Estimator zu verwenden, muss man eine Modellfunktion wie so definieren:Verwenden von Tensorflow Estimator für LSTMs zum Akzeptieren von Bildern
def some_model_fn(features, labels, mode):
...
Ich habe kein Problem Platzhalter mit den Eingängen und Etiketten zu bekommen. Wie verwandle ich Bilder in die von tensorflow lstms akzeptierte Form, die [batch_size, num_time_steps, num_features] ist?
Sie müssen die Bilder glätten, bevor Sie sie in ein LSTM einspeisen, es sei denn, Sie implementieren Ihre eigene Ebene (wie eine Convolutional/lstm). Sie können das mit 'np.flatten()' tun. Für 'num_time_steps' müssen Sie das LSTM mit nachfolgenden Bildern (wie einem rollenden Fenster) füttern. Wenn Sie keine sequenziellen Bilder verarbeiten, die bei der Vorhersage des nächsten Bildes helfen würden, ist es besser, ein Faltungsnetzwerk zu verwenden oder eine Bildabflachungsstrategie anzupassen (z. B. die Zeilen- oder Spaltenpixel in einer Sequenz an LSTM zu übergeben usw.) – umutto
Die Aufgabe ist Handschrifterkennung und ich füttere das Bild in vertikalen Streifen. Ich lese das Bild zuerst, dann transponiere ich es, um dies zu tun. –