Das CNN cifar10 Tutorial (Tensor Flow Tutorials) gibt ein Beispiel für Low-Level-API-Nutzung zum Lesen von Daten als unabhängiger Job zu trainieren Modell (mit mehreren GPU). Ist es möglich, High-Level-API-Estimator mit Low-Level-Threading-Unterstützung und Multi/Single-GPUs Training zu verwenden?Estimator mit Koordinator als Eingabefunktion zum Lesen von Eingabedaten in verteilter Form in Tensorflow
Ich bin auf der Suche nach einer Möglichkeit, beide zu kombinieren:
Die benutzerdefinierte Estimator von High-Level-API, Details https://www.tensorflow.org/extend/estimators
input_fn als eine Warteschlange, die die gleiche Funktionalität bietet, die beschrieben wird, in https://www.tensorflow.org/programmers_guide/reading_data für Coordinator Klasse
coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(sess=sess, coord=coord)
Es ist nicht einfach für mich!
Es gibt eine weitere Frage auf Stack-Überlauf: http://stackoverflow.com/questions/42506384/using-read-batch-record-features-with-an-estimator/42508760#42508760 – Aga