2017-05-09 2 views

Antwort

0

Sie können entweder use_bias = False setzen oder bias_initializer=None setzen, um die Vorspannung zu deaktivieren. Ich denke, der erste ist intuitiver. Die Einstellung bias_initializer führt jedoch zu Nullen und nicht zur Einstellung kernel_initializer wird glorot_uniform nach this Antwort.

1

Ich bin nicht sicher bias_initializer=None Bias

data = np.random.rand(2, 5, 8, 3).astype(np.float32) 
tensor = tf.constant(data) 
n = tf.layers.conv2d(tensor, 10, 3, 1, bias_initializer=None) 
tfvar = tf.trainable_variables() 
# tfvar 
# [<tf.Variable 'conv2d/kernel:0' shape=(3, 3, 3, 10) dtype=float32_ref>, 
# <tf.Variable 'conv2d/bias:0' shape=(10,) dtype=float32_ref>] 

sogar bias_initializer=None gesetzt, erhalten Bias als trainierbar Variablen

ein kleiner Test

deaktivieren
Verwandte Themen