2017-04-14 1 views
1

Ich führe SMS-Dekodierung auf einem kleinen Test-Set (5 Beispiele), aber sowohl die Referenz-und Entschlüsselungsdateien sind bereits Tausende von Zeilen lang. Gibt es einen Grund dafür, dass die Dekodierung scheinbar unbegrenzt läuft? Verarbeitet es wiederholt denselben Satz von Beispielen? Sollen spätere Ausgaben besser sein als frühere?Interpretieren von textsum dekodieren von Dateien (mehr Ausgabe als Eingabe?)

Würde etwas Intuition auf diesem lieben; Ich habe keine klare Erklärung gefunden.

+0

Sie können dieses Problem hilfreich finden (siehe die letzten ans): https://github.com/tensorflow/models/issues/468 – Blue482

Antwort

0

Ja, Sie sind richtig in Ihrem Denken, die gleiche Eingabe wird wiederholt verwendet, um die Ausgabe zu generieren. Sie können die Ausgabe jedoch auf nur eine beschränken. Ich habe es vor einer Weile gemacht, indem ich seq2seq_attention_decode.py änderte, wo Ausgabe in Datei geschrieben wird. Ich gab nur eine Eingabe, also wollte ich nach nur einer Ausgabe aufhören.

Gibt es einen Grund dafür, dass die Dekodierung scheinbar unbestimmt läuft ?: Es ist nur meine Intuition, dass es erwartet wird, verschiedene Zusammenfassung in verschiedenen Läufen zu geben. Wenn die Dekodierung auf einer Maschine ausgeführt wird, die sich von der Maschine, auf der sie trainiert wird, unterscheidet, sollte sie neue Modelle erzeugen und daher eine andere Ausgabe liefern. Wahrscheinlich wäre es eine Möglichkeit gewesen, die Veränderung des Outputs zu überwachen, während der Trainingsprozess weitergeht.

Verwandte Themen