Ich benutze mxnet, um einen 11-Klassen-Bildklassifizierer zu trainieren. Ich beobachte ein seltsames Verhalten, die Trainingsgenauigkeit nahm langsam zu und ging bis zu 39% und in der nächsten Zeit ging es auf 9% zurück und dann bleibt es für den Rest des Trainings nahe bei 9%. Ich startete das Training mit gespeichertem Modell (mit 39% Trainingsgenauigkeit) und behielt alle anderen Parameter bei. Jetzt nimmt die Trainingsgenauigkeit wieder zu. Was kann der Grund hier sein? Ich kann das nicht verstehen. Und es wird schwierig, das Modell auf diese Weise zu trainieren, da es erfordert, dass ich ständig Trainingsgenauigkeitswerte sehe.Plötzlicher Abfall der Genauigkeit beim Training eines tiefen neuronalen Netzes
Lernrate ist konstant bei 0,01
Wahrscheinlich ist Ihre Lernrate zu hoch und das Modell springt herum. Schwer zu sagen, ohne zu wissen, Ihre Hyperparameter – fabrizioM
Lernrate in 0,01 – sau
Sobald ich ähnliche Problem hatte, wenn ich zufällig eine lineare Aktivierung und verwendet kategorische Kreuz-Entropie als Kostenfunktion. –