2017-12-01 10 views

Antwort

0

Nach dem source code schafft keras dies in Theano:

variable = theano.shared(value=np.zeros(shape), 
         name='somename', 
         strict=False) 
variable._keras_shape = value.shape 
variable._uses_learning_phase = False 

Es ist oft besser, Verwenden Sie Keras-Objekte. Sie haben Formen und andere Funktionen für Keras-Modelle.

+0

okey! Kann ich also in meiner eigenen Ebene neue Tensoren mit theano.tensor.matrix() initialisieren und manipulieren, ohne die Verbindung zwischen den Layern und der Backpropagation zu verlieren? Mit anderen Worten, kann ich K.variable verwenden, um Daten in meiner benutzerdefinierten Ebene zu bearbeiten? Der Grund, den ich frage, ist in dem Link, den Sie in Zeile 197 geteilt haben: Es sagt, dass eine mit K.variable() erstellte Variable "nicht" ein Keras-Tensor ist - wie wirkt sich das auf meinen Lernprozess während der Backpropagation aus? – Tassou

+0

Normalerweise können Sie (in benutzerdefinierten und Lambda-Schichten) dieano-Funktionen verwenden und alles sollte in Ordnung sein. –

+0

Das hilft. Vielen Dank – Tassou

Verwandte Themen