0
In tensorflow tutorial for word embedding findet man:Tensorfluss. Der Unterschied zwischen [batch_size, 1] & [batch_size]
# Placeholders for inputs
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])
Was zwischen diesen beiden Platzhalter möglicherweise der Unterschied ist. Sind sie nicht beide ein Int32-Spaltenvektor der Größe batch_size?
Danke.
Die zweite Version ist die transponierte Version des ersten. –