2017-08-22 2 views
-1

Ich schreibe Codes wie unten, aber ich bin nicht sicher, ob diese voll verbundenen Schichten die gleichen Variablen teilen oder nicht.Tensorflow nicht verwendet Variable Scope

with tf.variable_scope("loss"): 
     _loss= tf.map_fn(lambda x: tf.contrib.layers.fully_connected(x, output_size), x_list) 

Antwort

0

, ob diese vollständig verbundenen Schichten teilen gleiche Variablen oder nicht?

tf.map_fn op verhält sich ähnlich wie python native map Funktion. Hier werden also alle Elemente der Liste demselben Parameter der vollständig verbundenen Ebene (share parameter) ausgesetzt.

+0

Dann, wenn ich brauche, haben sie andere Parameter, was soll ich tun? – Linsir

+0

zuerst die Eingabe teilen und dann verschiedene 'fc' Ebenen anwenden –