Das obige Netzwerk nimmt numerische Eingaben X1
, X2
, .., Xn
und hat Gewichte w1
, w2
wn
und mit diesen Eingängen verbunden. Außerdem gibt es einen weiteren Eingang 1 mit dem Gewicht w0
(der als die Bias-Einheit bezeichnet wird). Auch das ist ein Neuron. Diese
ist, was eine Vorspannungseinheit bewirkt:
Bias ist, jeden Knoten mit einem trainierbaren konstanten Wert zu liefern (zusätzlich zu den normalen Eingaben, die der Knoten empfängt).
Die Ausgabe ist die gewichtete Summe. Etwas wie folgt aus:
f (x) = x1 * w1 + x2 * w2 + xn * wn + 1 * w0
mehr, dies zu lernen zu überprüfen, es erklärt sehr gut http://117.239.79.250/moodle/pluginfile.php/6283/mod_resource/content/1/ANN1.pdf