2017-02-16 3 views
3

Ich lerne Tensorflow wide_n_deep_tutorial in diesen Tagen, und ich bin ein wenig verwirrt mit der tf.contrib.layers.embedding_column. Ich frage mich, wie Tensorflow die Einbettungssäule implementiert? Nehmen wir zum Beispiel an, dass ich eine Sparse-Eingabe mit der Dimension 1000 habe und sie in ein dichtes Feature mit der Dimension 10 einbetten soll. Enthält sie ein vollständig verbundenes Netzwerk mit 1000 * 10 Parametern und trainiert mit BP, um die Parameter zu aktualisieren ? Oder verwendet es einige andere Techniken wie FM, um den 1000-dim-Vektor auf einen 10-dim-Vektor zu mappen?Wie implementiert Tensorflow die embedding_column?

Antwort

1

Es gibt 3 Kombinierer in der embedding_column Funktion:

"Summe": normalisiert nicht "bedeuten": do l1 Normalisierung "SQRTn": do l2 Normalisierung. Weitere Informationen tf.embedding_lookup_sparse

Es werden keine FM zur Modulierung/Transformation der Dimensionen verwendet.

Verwandte Themen