Die SELU-Aktivierungsfunktion (https://github.com/bioinf-jku/SNNs/blob/master/selu.py) erfordert, dass der Eingang mit dem Mittelwert von 0,0 und der Varianz von 1,0 normalisiert wird. Daher habe ich versucht, tf.layers.batch_normalization
(axis=-1
) auf die Rohdaten anzuwenden, um diese Anforderung zu erfüllen. Die Rohdaten in jeder Charge haben die Form [batch_size, 15]
, wobei 15 sich auf die Anzahl der Features bezieht. Das folgende Diagramm zeigt die Varianzen von 5 dieser Features, die von tf.layers.batch_normalization
zurückgegeben wurden (~ 20 Epochen). Sie sind nicht alle nahe 1.0 wie erwartet. Die Mittelwerte liegen auch nicht alle nahe 0,0 (Graphen nicht gezeigt).Verwenden Sie tf.layers.batch_normalization, um Eingaben für die SELU-Aktivierungsfunktion vorzuverarbeiten?
Wie soll ich die 15 Features alle unabhängig voneinander normalisiert bekommen (ich erwarte, dass jedes Feature nach Normalisierung Mittelwert = 0 und var = 1.0)?