2017-04-06 11 views
1

Von keras docs: Sie dann TimeDistributed können Sie eine Dense Schicht an jedem der 10 Zeitschritte anzuwenden, unabhängig:Keras TimeDistributed - werden Gewichte geteilt?

# as the first layer in a model 
model = Sequential() 
model.add(TimeDistributed(Dense(8), input_shape=(10, 16))) 
# now model.output_shape == (None, 10, 8) 

# subsequent layers: no need for input_shape 
model.add(TimeDistributed(Dense(32))) 
# now model.output_shape == (None, 10, 32) 

ich es nicht überall, sind die Gewichte der Dense Schichten über die Zeitachse geteilt ?

Antwort

3

Ja, sie sind geteilt - genau das gleiche Dense wird auf jeden timestep angewendet. Darüber hinaus - in Keras 2.0 ist das Verhalten wie TimeDistributed jetzt Standard für eine Dense Schicht auf den Eingang, der mehr als 2D hat (einschließlich batch_dimension).

+0

Vielen Dank, einige Referenz könnte besser sein, aber wie ich dachte, sie wurden für wie 90% geteilt und Sie scheinen Sie wissen, wovon Sie reden, ich glaube Ihnen :) Schöne neue Funktion mit 2D-Eingaben, übrigens . –

+0

Ja - Ich mag die Art, wie Francois 'Keras' entwickelt :) –

Verwandte Themen