2017-09-15 4 views
2

Mein Keras Modell lernt nichts und ich kann nicht herausfinden warum. Ich habe sogar die Größe des Trainingssatzes auf 5 Elemente reduziert und das Modell passt immer noch nicht zu den Trainingsdaten.Keras Modell nicht lernen

loss function visualized with TensorBoard

Hier ist mein Code:

model = Sequential() 
model.add(Conv1D(30, filter_length=3, activation='relu', input_shape=(50, 1))) 
model.add(Conv1D(40, filter_length=(3), activation='relu')) 
model.add(Conv1D(120, filter_length=(3), activation='relu')) 
model.add(Flatten()) 
model.add(Dense(1024, activation='relu')) 
model.add(Dense(256, activation='relu')) 
model.add(Dense(32, activation='relu')) 
model.add(Dense(1, activation='relu')) 
model.summary() 
model.compile(loss='mse', 
       optimizer=keras.optimizers.adam()) 


train_limit = 5 
batch_size = 4096 
tb = keras.callbacks.TensorBoard(log_dir='./logs/' + run_name + '/', 
    histogram_freq=0, write_images=False) 
tb.set_model(model) 
model.fit(X_train[:train_limit], y_train[:train_limit], 
      batch_size=batch_size, 
      nb_epoch=10**4, 
      verbose=0, 
      validation_data=(X_val[:train_limit], y_val[:train_limit]), 
      callbacks=[tb]) 
score = model.evaluate(X_test, y_test, verbose=0) 
print('Test loss:', score) 
print('Test accuracy:', score) 

Jede Hilfe wird sehr geschätzt!

Antwort

6

Es scheint ein Regressionsproblem zu sein. Eine Sache, die mir aufgefallen ist, ist, dass Ihre letzte Ebene noch die ReLU-Aktivierungsfunktion hat. Ich würde empfehlen, die ReLU auf der letzten Schicht herauszunehmen.