Ich verwende ein neuronales Netzwerk aus 4 Eingangsneuronen, 1 versteckte Schicht aus 20 Neuronen und eine 7 Neuron-Ausgangsschicht.Neuronales Netzwerk mit tanh falscher Sättigung mit normalisierten Daten
Ich versuche es für einen bcd zu 7-Segment-Algorithmus zu trainieren. Meine Daten sind normalisiert 0 ist -1 und 1 ist 1.
Wenn die Ausgabe Fehlerauswertung geschieht, sättigt das Neuron falsch. Wenn der gewünschte Ausgang 1
ist und der tatsächliche Ausgang -1
ist, lautet der Fehler 1-(-1)= 2
. Wenn ich es mit der Ableitung der Aktivierungsfunktion error*(1-output)*(1+output)
multipliziere, wird der Fehler fast 0
.
Wie kann ich diesen Sättigungsfehler vermeiden?
dies einfach nicht meine Domäne sein, so berechnet werden, aber ich habe absolut keine Ahnung, wie es möglich ist, diese gegeben von der Information zu beheben.Ich weiß auch nicht, ob "tanh" ein Tippfehler oder ein hyperbolischer Tangens ist. – djechlin
tanh ist hperbolische Tangente :) – PVJ