Ich lerne seq2seq neuronales Modell und ich werde bei den regulären Softmax und Samples Softmax verwirrt. Mir wurde gesagt, dass die abgetastete Softmax hauptsächlich für große Vokabeln gedacht ist. Kann also jemand intuitiv den Unterschied zwischen den beiden erklären?Was ist der Unterschied zwischen regulärem Softmax und abgetastetem Softmax?
1
A
Antwort
0
Ein regulärer Softmax ist ein Softmax, bei dem jede Komponente in einer Normalisierungssumme berechnet wird, um alle Ihre Wahrscheinlichkeiten zu summieren. In einem Sampled Softmax müssen Sie normalerweise nur ein paar Komponenten der Softmax-Verteilung haben überspringe im Grunde eine direkte Berechnung eines Normalisierungsfaktors, indem einfach einige Werte aus der vorherigen Verteilung abgetastet werden, sie summiert werden und dies als Annäherung eines Normalisierungsfaktors behandelt wird.
Verwandte Themen
- 1. Aktionsauswahl mit Softmax?
- 2. Ableitung einer softmax Funktion Erklärung
- 3. Logistische Regressionsverlust-Funktion in Softmax umwandeln
- 4. matconvnet Klassifizierung Training letzte Schicht (Softmax)?
- 5. Warum hat dieses Modell eine softmax-Schicht?
- 6. Implementierung einer Softmax-Aktivierungsfunktion für neuronale Netze
- 7. Softmax Ableitung in NumPy Ansätze 0 (Implementierung)
- 8. Pro Pixel softmax für vollkonvolutionelles Netzwerk
- 9. tensorflow cifar-10 Bewertungsbeispiel softmax Ausgänge
- 10. Tensorflow-Sequenz zu Sequenz ohne Softmax
- 11. Was ist der Unterschied zwischen `==` und `ist`?
- 12. Was ist der Unterschied zwischen:.! und: r !?
- 13. Was ist der Unterschied zwischen Difftime und '-'?
- 14. Was ist der Unterschied zwischen $ und $$?
- 15. Was ist der Unterschied zwischen Verilog! und ~?
- 16. was ist der Unterschied zwischen [[], []] und [[]] * 2
- 17. Was ist der Unterschied zwischen/* ... */und/** ... */
- 18. Was ist der Unterschied zwischen `&` und `ref`?
- 19. Was ist der Unterschied zwischen $ (...) und `...`
- 20. Was ist der Unterschied zwischen .Equals und ==
- 21. Was ist der Unterschied zwischen "$^N" und "$ +"?
- 22. Was ist der Unterschied zwischen + = und = +?
- 23. Was ist der Unterschied zwischen? und ? = Nil
- 24. Was ist der Unterschied zwischen $ (()) und Ausdruck?
- 25. Was ist der Unterschied zwischen:
- 26. Unterschied zwischen Objective und Feval in xgboost
- 27. Wie ändere ich die Temperatur eines Softmax-Ausgang in Keras
- 28. Wie disjoint Klassifizierung ohne Softmax-Ausgabe zu tun?
- 29. Softmax-Matrix auf 0/1 (OneHot) codierte Matrix?
- 30. Wie implementiert man das Softmax-Derivat unabhängig von einer Verlustfunktion?