Ich baue gerade ein CNN im Tensorflow und initialisiere meine Gewichtsmatrix mit einer He-Normalgewichts-Initialisierung. Ich bin mir jedoch nicht sicher, wie ich meine Bias-Werte initialisieren soll. Ich verwende ReLU als meine Aktivierungsfunktion zwischen jeder Faltungsschicht. Gibt es eine Standardmethode zur Initialisierung von Bias-Werten?Anfängliche Bias-Werte für ein neuronales Netzwerk
# Define approximate xavier weight initialization (with RelU correction described by He)
def xavier_over_two(shape):
std = np.sqrt(shape[0] * shape[1] * shape[2])
return tf.random_normal(shape, stddev=std)
def bias_init(shape):
return #???
Dank genau das, was ich gesucht habe! –