2017-11-24 2 views
0

Ich trainiere vgg-19 net zu classfy cifar10, nach dem Training einmal, nur eine, die vgg-net nan zurückgibt.Nach Tensorflow-Training, vgg-net Rückkehr nan

0 [[ 4.45161677e+09 2.87961518e+10 4.20765041e+10 ...,   -2.33432433e+10 
1.83500431e+10 -1.12923648e+10] 
[ 1.18354002e+10 3.38799473e+10 5.86873242e+10 ..., -4.18343895e+10 
2.79392338e+10 -1.61746637e+10] 
[ 1.26074880e+09 2.22301839e+10 5.25488333e+10 ..., -2.92738212e+10 
2.51925299e+10 -1.48290714e+10] 
..., 
[ 1.05694116e+10 2.16351908e+10 5.02961357e+10 ..., -3.12492278e+10 
2.42959094e+10 -1.26112993e+10] 
[ 4.72429568e+09 2.75032003e+10 5.14044682e+10 ..., -3.51395635e+10 
2.18048840e+10 -1.46147287e+10] 
[ 2.97774285e+09 1.89559747e+10 4.06387917e+10 ..., -2.35828470e+10 
1.96148122e+10 -9.55916698e+09]] 
1 [[ nan nan nan ..., nan nan nan] 
[ nan nan nan ..., nan nan nan] 
[ nan nan nan ..., nan nan nan] 
..., 
[ nan nan nan ..., nan nan nan] 
[ nan nan nan ..., nan nan nan] 
[ nan nan nan ..., nan nan nan]] 

I tf.train.GradientDescentOptimizer zur Ausbildung vgg Netz verwenden, war aktiv Funktion relu, tf.random_normal Gewicht init und verwenden tf.nn.xw_plus_b als vollständig Verbindungsschicht. So möchte ich wissen, warum vgg-net nan, nach dem Training zurückgeben.

+0

Das Problem wurde gelöst. Im Netzwerk war meine Lernrate zu groß (1e-3), ich ändere lr zu 1e-11, das Training wurde begonnen. Vielen Dank. –

Antwort

1

Durch Verringern der Lernrate wird dieses numerische Stabilitätsproblem gelöst.