2016-10-26 2 views
0

Ich möchte das Textum-Modell zum Markieren benannter Entitäten verwenden. Daher ist die Zielgröße vocab sehr klein. Während des Trainings scheint es keine Option zu geben, unterschiedliche Vokabeln auf dem Encoder und auf der Decoderseite bereitzustellen - oder gibt es? Siehe code lines auf GithubTensorflow-Texteummodell- verschiedene Quell- und Ziel-Vokabeln

if hps.mode == 'train': model = seq2seq_attention_model.Seq2SeqAttentionModel(hps, vocab, num_gpus=FLAGS.num_gpus)

Antwort

0

Hrishikesh Ich glaube nicht, es eine Möglichkeit, getrennte vocab Dateien zur Verfügung zu stellen, aber nicht in vollem Umfang zu verstehen, warum Sie sie brauchen. Der Vokabular bietet einfach eine numerische Darstellung eines Wortes. Wenn das Modell mit diesen Wörtern arbeitet, verwendet es daher die numerischen Darstellungen von ihnen. Sobald die Hypothese vollständig ist und die statistischen Auswahlen für Wörter ausgewählt wurden, verwendet sie einfach die Vokabeldatei, um den Vokabindex in das zugehörige Wort zurück zu konvertieren. Ich hoffe, dass dies hilft, Ihre Frage zu beantworten und zu festigen, warum Sie keine separaten Vokabeldateien benötigen sollten. Das heißt, ich kann Missverständnisse Ihr Bedürfnis dafür und ich entschuldige mich, wenn das der Fall ist.

+0

verwiesen würde Um zu verdeutlichen: Ich möchte etwas wie nehmen: "Dieses Shirt ist blau" und es als -> ["dieses", "Shirt "," ist "," blau "] -> [" no_color "," no_color "," no_color "," color "]]. So hat mein Zielseitenvokab nur "Farbe" und "noc_color". Wenn das Modell einen Softmax zur Vorhersage eines Tokens auf der Zielseite ausführt, möchte ich, dass nur eine von "Farbe" und "keine Farbe" vorhergesagt wird. –

0

Nein, es gibt keine vorgefertigte Option, um die Textsumme auf diese Weise zu verwenden. Ich sehe keinen Grund, warum es nicht möglich sein sollte, die Architektur zu ändern, um dies zu erreichen. Wäre daran interessiert, wenn Sie auf einige Literatur zur Verwendung von seq2seq w/Aufmerksamkeit Modelle für NER

Verwandte Themen