Es gibt ein Tensorflow LSTM Beispiel hier:Tensorflow: RNN Beispiel, wo tun Wort Einbettungen kommen aus
https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/ptb_word_lm.py
Ich versuche zu verstehen, wo das Wort Einbettungen herkommen.
Siehe, da ist dieser Code:
with tf.device("/cpu:0"):
embedding = tf.get_variable(
"embedding", [vocab_size, size], dtype=data_type())
inputs = tf.nn.embedding_lookup(embedding, input_.input_data)
Ich habe ein Gefühl dafür, was die embedding
Variable halten sollte (wie erläutert, sagen wir, in diesem Beispiel. https://www.tensorflow.org/tutorials/word2vec Aber es hat etwas Magie sein das bekommen Arbeit erledigt (Training eines Einbettungsmodells, etc.)
Und ich sehe im Projektcode nichts dergleichen Ich kann auch nichts finden, was einfache einheiß codierte Vektoren erzeugen könnte Es ersetzt nur Wörter mit ihren Ganzzahl-IDs und dann Umformen der Daten im Leser-Code (https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb/reader.py).
Was fehlt mir? Es tut mir wirklich leid, wenn das etwas offensichtlich ist.
Ja, aber wo genau ist es trainiert? .. – oopcode
Back-Propagation die Arbeit der Suche nach Gradienten und aktualisieren sie. – hars