2017-07-25 4 views
0

Ich habe ein Problem bei der Deklaration meines Modells. Meine Eingaben sind x_input und y_input, und meine Ausgaben sind Vorhersagen. Wie folgt:Keras Backend-Modellierung Problem

Meine Eingaben (x, y) sind beide eingebettet, dann MatMult zusammen. Wie folgt:

# Build X Branch 
x_input = Input(shape = (maxlen_x,), dtype = 'int32')        
x_embed = Embedding(maxvocab_x + 1, 16, input_length = maxlen_x) 
XE = x_embed(x_input) 
# Result: Tensor("embedding_1/Gather:0", shape=(?, 31, 16), dtype=float32) 
# Where 31 happens to be my maxlen_x 

Ähnliches gilt für die y-Zweig ...

# Build Y Branch 
y_input = Input(shape = (maxlen_y,), dtype = 'int32')        
y_embed = Embedding(maxvocab_y + 1, 16, input_length = maxlen_y) 
YE = y_embed(y_input) 
# Result: Tensor("embedding_1/Gather:0", shape=(?, 13, 16), dtype=float32) 
# Where 13 happens to be my maxlen_y 

ich dann eine Batch-Punkt zwischen den beiden. (Punktierung einfach die Daten von jeder Instanz)

from keras import backend as K 
dot_merged = K.batch_dot(XE, YE, axes=[2,2]) # Choose the 2nd component of both inputs to Dot, using batch_dot 
# Result: Tensor("MatMul:0", shape=(?, 31, 13), dtype=float32)` 

I abgeflachte dann die letzten beiden Dimensionen des Tensors.

dim = np.prod(list(dot_merged.shape)[1:]) 
flattened= K.reshape(dot_merged, (-1,int(dim))) 

Letztendlich fütterte ich diese abgeflachten Daten in einen einfachen logistischen Regressor.

predictions = Dense(1,activation='sigmoid')(flattened) 

Und meine Vorhersagen sind natürlich meine Ausgabe für das Modell.

Ich werde die Ausgabe jeder Schicht durch die Ausgabeform des Tensors auflisten.

Tensor("embedding_1/Gather:0", shape=(?, 31, 16), dtype=float32) 
Tensor("embedding_2/Gather:0", shape=(?, 13, 16), dtype=float32) 
Tensor("MatMul:0", shape=(?, 31, 13), dtype=float32) 
Tensor("Reshape:0", shape=(?, 403), dtype=float32) 
Tensor("dense_1/Sigmoid:0", shape=(?, 1), dtype=float32) 

Ich bekomme den folgenden Fehler, speziell.

Traceback (most recent call last): 
    File "Model.py", line 53, in <module> 
    model = Model(inputs = [dx_input, rx_input], outputs = [predictions]) 
    File "/Users/jiangq/tensorflow/lib/python3.6/site-packages/keras/legacy/interfaces.py", line 88, in wrapper 
    return func(*args, **kwargs) 
    File "/Users/jiangq/tensorflow/lib/python3.6/site-packages/keras/engine/topology.py", line 1705, in __init__ 
    build_map_of_graph(x, finished_nodes, nodes_in_progress) 
    File "/Users/jiangq/tensorflow/lib/python3.6/site-packages/keras/engine/topology.py", line 1695, in build_map_of_graph 
    layer, node_index, tensor_index) 
    File "/Users/jiangq/tensorflow/lib/python3.6/site-packages/keras/engine/topology.py", line 1665, in build_map_of_graph 
    layer, node_index, tensor_index = tensor._keras_history 
AttributeError: 'Tensor' object has no attribute '_keras_history' 

Volia. Was habe ich falsch gemacht? Danke für jede Hilfe im Voraus!

-Anthony

Antwort

1

Haben Sie versucht, die Backend-Funktionen in eine Lambda Schicht Verpackung? Ich denke, es gibt einige notwendige Operationen innerhalb einer Keras-Schicht __call__()-Methode für eine Keras Model ordnungsgemäß gebaut werden, die nicht ausgeführt werden, wenn Sie die Back-End-Funktionen direkt aufrufen.

+0

Danke für die Antwort! Nee. Ich tat es nicht. Wie würde ich eine Lambda-Schicht hinzufügen? –

+0

Ich habe nicht getestet, aber 'dot_merged = Lambda (Lambda x: K.batch_dot (x [0], x [1], Achsen = [2,2])) ([XE, YE])' gefolgt von ' abgeflacht = Flatten() (dot_merged) 'sollte funktionieren. –

+0

Oh mein Gott. Es funktionierte!!! Danke danke danke. Upvote :) –