Warum Tensorflow 'Dim' Parameter für Softmax Funktion verwenden? Welche Art von Tensoren können wir als Eingabe verwenden?Warum Tensorflow 'Dim' Parameter für Softmax Funktion verwenden?
0
A
Antwort
0
tf.nn.softmax
akzeptiert in Eingabe einen generischen nicht leeren Tensor.
Sie können entscheiden, Softmax auf jede gewünschte Dimension anzuwenden.
Normalerweise wird softmax auf die letzte Dimension (das ist das Standardverhalten) des Eingangstensors angewendet. Dies liegt daran, dass Softmax normalerweise auf die Ausgabe eines neuronalen Netzwerks angewendet wird, bei der es sich normalerweise um einen Tensor mit der Form [batch_size, num_classes]
handelt.
Allerdings könnten Sie sich entscheiden, mit einer Form von [batch_size, num_classes, 2, 1]
auf einen Tensor anzuwenden softmax und berechnen die softmax nur über die zweite Dimension des Tensor: tf.nn.softmax(tensor, axis=1)
Verwandte Themen
- 1. Tensorflow "Verwenden Sie keine Softmax-Kreuz-Entropie" mit Softmax-Ausgang? Warum?
- 2. in tensorflow MNIST softmax Tutorial wird softmax Funktion
- 3. Tensorflow: Hierarchische Softmax-Implementierung
- 4. Softmax Jacobian in Tensorflow
- 5. Tensorflow Sampled Softmax Verlust Korrekte Verwendung
- 6. TensorFlow - softmax auf einem Platzhalter
- 7. InvalidArgumentError in tensorflow (softmax mnist)
- 8. tensorflow rnn_decoder führen softmax auf jedem decoder_output
- 9. Schnelle Softmax-Regressions-Implementierung in Tensorflow
- 10. Warum ist die Softmax-Funktion notwendig? Warum nicht einfache Normalisierung?
- 11. Hinzufügen mehrerer Softmax-Klassifikatoren zu TensorFlow Beispiel
- 12. Wie haben mehrere Softmax-Ausgänge im Tensorflow?
- 13. tensorflow cifar-10 Bewertungsbeispiel softmax Ausgänge
- 14. Tensorflow-Sequenz zu Sequenz ohne Softmax
- 15. Tensorflow keine Änderung des Parameterwerts für ein einfaches Softmax-Modell
- 16. Warum möchten Sie die Funktion state_saving_rnn() in TensorFlow verwenden?
- 17. Ableitung einer softmax Funktion Erklärung
- 18. Pro Pixel softmax für vollkonvolutionelles Netzwerk
- 19. tensorflow - softmax ignorieren negative Labels (genau wie caffe)
- 20. Warum hat dieses Modell eine softmax-Schicht?
- 21. Verwenden von zwei Suchfunktionen für eine DIM KEY
- 22. Logistische Regressionsverlust-Funktion in Softmax umwandeln
- 23. Wie ist es überhaupt möglich, softmax für word2vec zu verwenden?
- 24. Warum kann ich kein Char als Parameter einer Funktion verwenden?
- 25. Platzhalter für LSTM-RNN-Parameter in TensorFlow
- 26. Tensorflow Serving Batching-Parameter
- 27. Tensorflow - Erkennen mehrerer Objekte auf trainiertem Softmax-Klassifizierungsmodell
- 28. Softmax-Funktion eines numpy Array nach Zeile
- 29. Implementierung einer Softmax-Aktivierungsfunktion für neuronale Netze
- 30. Warum None für die Batch-Dimension im Tensorflow verwenden?