Im CUDA ConvNet können wir die Neuronenaktivierungsfunktion als linear spezifizieren, indem wir neuron=linear[a,b]
schreiben, so dass f(x) = ax + b
.Wie wird eine lineare Aktivierungsfunktion in TensorFlow verwendet?
Wie erreiche ich das gleiche Ergebnis in TensorFlow?
sind linear_b immer Nullen? Was ist der Sinn des Hinzufügens von Nullen? – Brans
Sie sind eine Variable, die anfänglich auf Nullen gesetzt wird, was normalerweise eine gute erste Schätzung für die Verzerrungen ist (wenn keine anderen Informationen vorhanden sind). Wenn Sie das Netzwerk trainieren, wird diese Variable normalerweise auf einen Wert ungleich Null aktualisiert. – mrry