Ich versuche CNN zu verwenden, um Bilder zu klassifizieren und so weit ich sehen kann, ist ReLu eine beliebte Wahl für die Aktivierungseinheit in jeder Faltungsschicht. Nach meinem Verständnis würde ReLU alle positiven Bildintensitäten beibehalten und die negativen in Nullen umwandeln. Für mich ist es wie Bearbeitungsschritt, nicht wirklich "feuern" Schritt überhaupt . Also was ist der Zweck der Verwendung von ReLU hier?Warum wird ReLU als Aktivierungseinheit im Convolutional Neural Network verwendet?
Antwort
Zunächst führt es Nichtlinearität ein. Ohne sie wäre das ganze CNN nichts anderes als eine Folge von Matrixmultiplikationen und Max-Poolings (so dass Sie keine komplizierten Funktionen approximieren und lernen könnten). Aber ich stelle mir vor, Sie fragen, warum gerade ReLU populär ist. Ein Grund, der mir in den Sinn kommt, ist, dass andere Aktivierungsfunktionen wie tanh
oder Sigmoids ein Gradientensättigungsproblem haben. Dies bedeutet, dass, sobald der Wert, den sie ausgegeben haben, nahe dem maximalen Wert ist, ihr Gradient insignifikant wird (schaue einfach auf ihren Graphen, , zum Beispiel auf wikipedia) und sie würden den Gradienten bei der Rückpropagation abtöten. ReLU hat dieses Problem nicht. Darüber hinaus bedeutet die Tatsache, dass ReLUs Nullen für negative Werte erzeugen, dass die von dem Netzwerk produzierten Zwischendarstellungen eher spärlicher sind.
- 1. Convolutional Neural Network Training
- 2. Convolutional Neural Network mit TensorFlow
- 3. Warum verhindert ein Aussetzer die Konvergenz im Convolutional Neural Network?
- 4. Unterschied zwischen parallelen und sequentiellen Convolutions im Convolutional Neural Network
- 5. Zeitreihenanalyse mit Convolutional Neural Network von mxnet
- 6. Unterschiede zwischen Convolutional Neural Network Architekturen
- 7. Wie funktioniert Backpropagation im Convolutional Neural Network (CNN)?
- 8. Gebäude Convolutional Neural Network mit großen Bildern?
- 9. Reduzierung der Filtergröße in Convolutional Neural Network
- 10. Sind moderne CNN (convolutional neural network) als DetectNet rotierend invariant?
- 11. Identifizieren Sie die Schichten eines Convolutional Neural Network
- 12. Warum TensorFlow für Convolutional Neural Networks
- 13. Bildverarbeitung, um Daten in Convolutional Neural Network Feed
- 14. Keras Convolutional Neural Network Validierung Genauigkeit nicht ändern
- 15. Verfügt Convolutional Neural Network über Lokalisierungsfähigkeiten auf Bildern?
- 16. Der Filtervektor und seine Schichtfunktion in einem Convolutional Neural Network
- 17. Wie implementiert L2 regulierte Kostenfunktion für Convolutional Neural Network
- 18. Keras Sequential Neural Network
- 19. Neural Network schlechte Konvergenz
- 20. Wie man Bagging mit Scikit BaggingClassifier mit Keras Convolutional Neural Network als Basisschätzer über Keras-Scikit Wrapper tun?
- 21. Convolution Neural Network Konfiguration
- 22. Hauspreisvoraussage mit Neural Network- network nicht lernen
- 23. Convolutional neuronal network mit openCV
- 24. Neural Network in Scilab Erkenntnis
- 25. Python Neural Network Reinforcement Learning
- 26. 2D Convolutional Neural Networks mit Bildern variabler Größe
- 27. Wie beschreibe ich Segmente, die aus Segmentierungsalgorithmen für ein Convolutional Neural Network generiert wurden?
- 28. Neural Network Größe für Animationssystem
- 29. 3D Faltungs Neural Network Eingang Form
- 30. Neural Network-Implementierung in Java
Mögliches Duplikat von [diese Frage] (https://stackoverflow.com/questions/9782071/why-must-a-nonlinear-activation-function-be-used-in-a-backpropagation-neural-net). Für weitere Informationen zu ReLU siehe [diese Frage] (https://stats.stackexchange.com/questions/126238/what-are-the-advantages-of-relu-over-sigmoid-function-in-deep-neural- Netzwerke). – jodag
Siehe auch https://stats.stackexchange.com/questions/141960/deep-neural-nets-relus- removing-non-linearity – MSalters