Kann mir jemand erklären, was der Tensorflow BoW Encoder macht/zurückgibt? Ich würde erwarten, einen Vektor von Wortzählungen pro Dokument zu erhalten (wie in Sklearn), aber anscheinend macht es etwas mehr Phantasie.Tensorflow Bow Encoder Erklärung
In diesem Beispiel:
features = encoders.bow_encoder(
features, vocab_size=n_words, embed_dim=EMBEDDING_SIZE)
A 'embed_dim' ist vergangen und ich verstehe auch nicht, was dies im Zusammenhang mit einer Verbeugung Codierung tut. Die Dokumentation ist leider nicht sehr hilfreich. Ich könnte versuchen, den Tensorflow-Code sicher durchzuarbeiten, aber ich würde mich über eine Erklärung auf hoher Ebene freuen.