2016-06-30 2 views

Antwort

1

Hätten Sie den Quellcode eines Decoders wie this one gelesen, würden Sie erfahren, dass er die Anzahl der Aufmerksamkeiten darstellt.

Manchmal gibt es mehrere Aufmerksamkeiten (hierarchische Aufmerksamkeiten), z. B. diese (wie unten abgebildet) in this paper.
TL; DR; der erste ist für das Wort und der zweite ist für den Satz.
Bitte überprüfen Sie diese Grafik: enter image description here

+0

Wie viele Aufmerksamkeitsvektoren haben wir für eine Einheit im Decoder berechnet? Wie ändere ich die Anzahl der Aufmerksamkeiten? Ist das so, dass wir die Encoder-Zustände zweimal durchlaufen? –

+1

Ja, Sie können diese im folgenden Code überprüfen, insbesondere [diese Zeile] (https://github.com/tensorflow/tensorflow/blob/r1.1/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py# L683). – lerner

+0

ja. Aber ich habe dieses Problem. Wenn wir zwei Aufmerksamkeiten haben, was wird passieren? –

Verwandte Themen