0Hitze
1Antwort
Aktivierungsfunktion für Ausgabeschicht für Regressionsmodelle in Neuronalen Netzen
-4Hitze
1Antwort
Gibt es Pläne, eine undichte ReLU in H2O zu implementieren?
-1Hitze
1Antwort
Benutzerdefinierte sigmoide Aktivierungsfunktion
0Hitze
1Antwort
Warum wird ReLU als Aktivierungseinheit im Convolutional Neural Network verwendet?
0Hitze
1Antwort
Wie man eine stückweise Aktivierung mit Python in TensorFlow macht?
1Hitze
1Antwort
Wie benutzt man tf.nn.crelu im Tensorflow?
0Hitze
1Antwort
Wie man eine Transformation auf ein einzelnes Neuron anwendet?
1Hitze
1Antwort
Lineare Aktivierungsfunktion in Word zu Vektor
0Hitze
1Antwort
Wie erstellt man einen einfachen einmaligen Aktivierungsprozess mit C#?
1Hitze
1Antwort
Wie kann ich eine eigene Aktivierungsfunktion in der Tensorfluss-API verwenden?