2017-05-20 1 views
0

Gibt es eine erfolgreiche Anwendung des deep seq2seq-Modells, bei der der Decoder im ersten Schritt nur den Ausgangszustand des Encoders (letzter Schritt des internen Encoder-Status) liest und mehrere Schritte dekodiert?Ist einfach tief seq2seq ohne zu spähen oder Aufmerksamkeit konvergieren?

I.e. kein Piepen, keine Aufmerksamkeit usw. Bei jedem Schritt ist die Eingabe des Decoders nur die Ausgabe und der Zustand des vorherigen Schritts.

Ich könnte sehen, ein paar Seq2seq Autoencoder-Implementierung, frage mich, ob sie wirklich nach langer Zeit des Trainings konvergieren, vor allem, wenn der interne Zustand klein ist.

Antwort

Verwandte Themen