Ich möchte mein Modell in derselben TensorFlow-Sitzung trainieren und testen. Ich verwende zwei verschiedene tf.FIFOQueue
s, um die Trainings- und Testdaten mit mehreren Threads zu laden (da feed_dict
zu schlechter Leistung führt). Ich habe zwei Dinge ausprobiert:TensorFlow: Training und Tests in derselben Sitzung
Ich habe versucht, mein Modell zweimal (für Training und Tests) mit gemeinsamen Parametern zu erstellen. Aber ich benutzte
tf.contrib.layers.batch_norm
und es erlaubt nicht, die Parameter der Batch-Normalisierung zu teilen.Ich versuchte, den Eingang
tf.FIFOQueue
meines Netzwerks aufis_training
boolean Platzhaltertf.cond
aber anscheinendtf.cond
führt beide dequeue Funktion stf.FIFOQueue
mit aufzubereiten, egal, wasis_training
hält.
Ich frage mich, was die konventionelle Einrichtung ohne Verwendung feed_dict
in der gleichen Sitzung zu trainieren und zu testen ist.