Ich habe eine Folge von indizierten Wörtern w_1, ..., w_n. Da ich neu im Deep Learning bin, suche ich nach einer einfachen Implementierung eines seq2seq-Po-Tagging-Modells in Keras, das den Aufmerksamkeitsmechanismus verwendet und eine Folge von POS-Tags t_1, ..., t_n aus meiner Wortsequenz erzeugt.Keras Sequenz-zu-Sequenz-Codierer-Decodierer-Wortart-Beispiel mit Aufmerksamkeitsmechanismus
Um genau zu sein, ich weiß nicht, wie die Ausgänge von LSTM versteckten Schichten des Encoders zu sammeln (da sie TimeDistributed sind) und wie die Decoder LSTM Schicht für jeden Zeitstempel mit den Ausgaben der Zeit "t- 1 "zum Erzeugen der Ausgabe" t ".
Das Modell, über das ich nachdenke, sieht wie das in diesem Papier http://arxiv.org/abs/1409.0473 aus.
Sie können die vollständige Sequenz von wiederkehrenden Schichten erhalten, indem sie die 'return_sequences = true' Initialisierungsparameter wenn das Ihr Problem vorbei. – nemo
Bedeutet das, dass ich Zugang zu den Ausgaben aller Schichten haben werde, sobald die Ausgabe im letzten Knoten berechnet wird (ich muss auf den Vektor von h_0 zu h_n in der Aufmerksamkeitsebene zugreifen) –
Mein anderes Problem ist, dass ich 'don' Ich weiß, ob ich einen Sequential- oder einen Graph-Container benötige, um den codierten Vektor von versteckten Zuständen + Eingabe in der Aufmerksamkeitsschicht zu erzeugen. Funktioniert 'return_sequences = True' in einem oder nur einem Graphen? –