2017-04-10 3 views
0

https://github.com/slavaglaps/ResNet_cifar10/blob/master/resnet.ipynbKleine Validierungsgenauigkeit RESNET 50

Das ist mein Modell in 100 Epochen trainiert Genauigkeit auf ähnliche Modelle und ähnliche Daten erreicht 90% Was mein Problem ist? Ich denke, es lohnt sich, die Lernrate im Laufe der Epochen zu reduzieren. Was denkst du kann mir das helfen?

+0

"ähnliche Modelle und ähnliche Daten erreicht 90%" - bitte geben Sie Quellen/genauer hier –

+0

Sind Sie sicher, dass die anderen Ensembles/Testzeit Augmentation nicht verwenden? –

+0

'x_train = x_train/255' - was ist der' dtype' von 'x_train'? Int oder schwimmen? (Bitte überprüfen Sie es; raten Sie nicht - Sie können es auch mit 'scipy.misc.imshow' visualisieren, um sicherzustellen, dass die Daten korrekt geladen sind) –

Antwort

2

Es gibt ein paar feine Unterschiede.

  1. Sie versuchen, eine ImageNet-Architektur auf Cifar-10 anzuwenden. Die erste Faltung ist 3 x 3, nicht 7 x 7. Es gibt keine Max-Pooling-Schicht. Das Bild wird nur unter Verwendung von Schritt-2-Windungen verkleinert.

  2. Sie sollten wahrscheinlich die Mittelwertbildung durchführen, indem Sie featurewise_center = True in ImageDataGenerator beibehalten.

  3. Verwenden Sie nicht sehr viele Filter wie [512, 1024, 2048]. Es gibt nur 50.000 Bilder, die Sie im Gegensatz zu ImageNet mit etwa einer Million trainieren können.

Kurz gesagt, lesen Sie in der deep residual network paper Abschnitt 4.2 und versuchen, das Netzwerk zu replizieren. Sie können auch lesen this Blog.

Verwandte Themen