Ich habe das Problem, dass ich meine Ergebnisse nicht mit Keras und ThensorFlow reproduzieren kann.Ergebnisse nicht reproduzierbar mit Keras und TensorFlow in Python
Es scheint so, als hätte es kürzlich einen Workaround für dieses Problem auf der Keras documentation site veröffentlicht, aber irgendwie funktioniert es nicht für mich.
Was mache ich falsch?
Ich benutze ein Jupyter Notebook auf einem MBP Retina (ohne Nvidia GPU).
# ** Workaround from Keras Documentation **
import numpy as np
import tensorflow as tf
import random as rn
# The below is necessary in Python 3.2.3 onwards to
# have reproducible behavior for certain hash-based operations.
# See these references for further details:
# https://docs.python.org/3.4/using/cmdline.html#envvar-PYTHONHASHSEED
# https://github.com/fchollet/keras/issues/2280#issuecomment-306959926
import os
os.environ['PYTHONHASHSEED'] = '0'
# The below is necessary for starting Numpy generated random numbers
# in a well-defined initial state.
np.random.seed(42)
# The below is necessary for starting core Python generated random numbers
# in a well-defined state.
rn.seed(12345)
# Force TensorFlow to use single thread.
# Multiple threads are a potential source of
# non-reproducible results.
# For further details, see: https://stackoverflow.com/questions/42022950/which-seeds-have-to-be-set-where-to-realize-100-reproducibility-of-training-res
session_conf = tf.ConfigProto(intra_op_parallelism_threads=1, inter_op_parallelism_threads=1)
from keras import backend as K
# The below tf.set_random_seed() will make random number generation
# in the TensorFlow backend have a well-defined initial state.
# For further details, see: https://www.tensorflow.org/api_docs/python/tf/set_random_seed
tf.set_random_seed(1234)
sess = tf.Session(graph=tf.get_default_graph(), config=session_conf)
K.set_session(sess)
# ** Workaround end **
# ** Start of my code **
# LSTM and CNN for sequence classification in the IMDB dataset
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.layers.embeddings import Embedding
from keras.preprocessing import sequence
from sklearn import metrics
# fix random seed for reproducibility
#np.random.seed(7)
# ... importing data and so on ...
# create the model
embedding_vecor_length = 32
neurons = 91
epochs = 1
model = Sequential()
model.add(Embedding(top_words, embedding_vecor_length, input_length=max_review_length))
model.add(LSTM(neurons))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='mean_squared_logarithmic_error', optimizer='adam', metrics=['accuracy'])
print(model.summary())
model.fit(X_train, y_train, epochs=epochs, batch_size=64)
# Final evaluation of the model
scores = model.evaluate(X_test, y_test, verbose=0)
print("Accuracy: %.2f%%" % (scores[1]*100))
Python 3.6.3 | Anaconda benutzerdefiniert (x86_64) | (Standard, 6. Oktober 2017, 12:04:38) [GCC 4.2.1 Compatible Clang 4.0.1 (Tags/RELEASE_401/final)]
Die Problemumgehung ist bereits im Code enthalten (ohne Wirkung).
Mit jedem Trainingsteil bekomme ich unterschiedliche Ergebnisse.
Beim Zurücksetzen des Kernels des Jupyter Notebooks entspricht das erste Mal dem ersten Mal und das zweite Mal dem zweiten Mal.
So nach dem Zurücksetzen ich immer zum Beispiel 0,7782 im ersten Lauf bekommen, 0,7732 auf dem zweiten Lauf usw.
Aber Ergebnisse ohne Kernel-Reset sind immer unterschiedlich jedes Mal, wenn ich es laufen.
Ich wäre für jeden Vorschlag hilfreich!
Können Sie 'np.random.get_state()' und 'rn.getstate()' zur Ausgabe hinzufügen? Verwenden Sie GPU oder CPU? Können Sie das Skript in 'Python' ausprobieren? – Maxim