Vielleicht zu allgemein eine Frage, aber kann jemand erklären, was würde eine Convolutional Neural Network zu divergieren führen?Tensorflow Nan Verlust Gründe
Besonderheiten:
ich mit einigen meiner eigenen Daten Tensorflow des iris_training Modell bin mit und halten
ERROR:tensorflow:Model diverged with loss = NaN.
Traceback...
tensorflow.contrib.learn.python.learn.monitors.NanLossDuringTrainingError: NaN loss during training.
Traceback mit Linie bekommen entstanden:
tf.contrib.learn.DNNClassifier(feature_columns=feature_columns,
hidden_units=[300, 300, 300],
#optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.001, l1_regularization_strength=0.00001),
n_classes=11,
model_dir="/tmp/iris_model")
Ich habe versucht Einstellung der Optimierer, der eine Null für die Lernrate verwendet und keinen Optimierer verwendet. Irgendwelche Einblicke in Netzwerkschichten, Datengröße usw. werden geschätzt.
Es ist eine natürliche Eigenschaft der stochastischen Gradientenabstieg, wenn die Lernrate zu groß ist, kann SGD ins Unendliche abweichen –
@YaroslavBulatov Ich habe mit diesem AdagradOptiizer mit einer Lernrate von etwa 1E-15 versucht. Vielleicht sind meine Daten nicht für SGD geeignet, können Sie einen anderen Algorithmus vorschlagen? Noch neu bei Tensorflow und Deep Learning. – Zroach