Ich möchte das Textum-Modell zum Markieren benannter Entitäten verwenden. Daher ist die Zielgröße vocab sehr klein. Während des Trainings scheint es keine Option zu geben, unterschiedliche Vokabeln auf dem Encoder und auf der Decoderseite bereitzustellen - oder gibt es? Siehe code lines auf GithubTensorflow-Texteummodell- verschiedene Quell- und Ziel-Vokabeln
if hps.mode == 'train': model = seq2seq_attention_model.Seq2SeqAttentionModel(hps, vocab, num_gpus=FLAGS.num_gpus)
verwiesen würde Um zu verdeutlichen: Ich möchte etwas wie nehmen: "Dieses Shirt ist blau" und es als -> ["dieses", "Shirt "," ist "," blau "] -> [" no_color "," no_color "," no_color "," color "]]. So hat mein Zielseitenvokab nur "Farbe" und "noc_color". Wenn das Modell einen Softmax zur Vorhersage eines Tokens auf der Zielseite ausführt, möchte ich, dass nur eine von "Farbe" und "keine Farbe" vorhergesagt wird. –