Die kürzlich entwickelte Layer Normalization-Methode adressiert das gleiche Problem wie Batch Normalization, aber mit weniger Rechenaufwand und keine Abhängigkeit von der Charge, so dass es konsequent während des Trainings und Tests angewendet werden kann.Ist Layer-Normierung immer besser als Batch-Normalisierung für Deep Learning
Meine Frage ist, ist Schichtnormalisierung immer besser als Batchnormalisierung, oder gibt es noch einige Fälle, in denen Batch-Normalisierung vorteilhaft sein kann?