2017-02-12 5 views
0

Wie wir wissen, ist Dropout ein Mechanismus zur Kontrolle der Überanpassung. Im Trainingsprozess von Keras können wir eine Online-Kreuzvalidierung durchführen, indem wir den Validierungsverlust überwachen und die Daten in aufteilen.dropout und data.split in model.fit

Muss ich im Allgemeinen beide Mechanismen verwenden? Oder wenn ich die Daten in aufgeteilt habe, brauche ich kein Dropout.

Antwort

1

Dropout ist eine Regularisierungstechnik, d. H. Es verhindert, dass das Netzwerk Ihre Daten schnell überfüllt. Der Validierungsverlust gibt Ihnen nur einen Hinweis darauf, wann Ihr Netzwerk überfüllt ist. Dies sind zwei völlig verschiedene Dinge und ein Validierungsverlust hilft Ihnen nicht, wenn Ihr Modell überbaut ist, es zeigt Ihnen nur, dass es ist.

Ich würde sagen, dass ein Validierungsverlust wertvolle Informationen während des Trainings zu haben ist und Sie sollten nie ohne sie gehen. Ob Sie Regularisierungstechniken wie Rauschen, Dropout oder Batch-Normalisierung benötigen, hängt davon ab, wie Ihr Netzwerk lernt. Wenn Sie sehen, dass es überdeckt, sollten Sie versuchen, Regularisierungstechniken zu verwenden.

Verwandte Themen