Könnte mir bitte jemand erklären, wie man die Verzerrung während der Backpropagation aktualisiert?Wie aktualisiert man die Verzerrung bei der Backpropagation eines neuronalen Netzwerks?
Ich habe schon einige Bücher gelesen, kann aber keine Bias-Aktualisierung finden!
Ich verstehe, dass Bias eine zusätzliche Eingabe von 1 mit einem Gewicht (für jedes Neuron) ist. Es muss eine Formel geben.
Danke,
@msw
meisten interessant. Danke, ich denke, zwei gute Punkte sind: 1. "Die" universelle Approximation "-Eigenschaft von Multilayer-Perceptrons mit den am häufigsten verwendeten Aktivierungsfunktionen für verborgene Layer gilt nicht, wenn Sie die Bias-Terme weglassen. Aber Hornik (1993) zeigt das eine hinreichende Bedingung für die universelle Approximationseigenschaft ohne Verzerrungen ist, dass keine Ableitung der Aktivierungsfunktion im Ursprung verschwindet, was impliziert, dass mit den üblichen Sigmoidaktivierungsfunktionen anstelle einer trainierbaren Verzerrung ein fester von Null verschiedener Bias-Term verwendet werden kann. 2. Die Bias-Bedingungen können wie andere Gewichte gelernt werden.“So werde ich entweder in einem‚konstanten Gewicht‘hinzufügen oder trainieren dieses Gewicht wie alle anderen Gradientenabfallsaktualisierung verwenden.
Bin ich richtig verstehen?
Das ist eine große Frage mit einer bedauerlich großen Antwort. Dies ist ein anständiger Ausgangspunkt: ftp://ftp.sas.com/pub/neural/FAQ2.html#A_bias – msw
Trainieren Sie dieses Gewicht wie alle anderen mit Gradientenabstieg – pberkes
Bias Term erforderlich ist, ermöglicht ein Bias-Wert, um zu verschieben die Aktivierungsfunktion (Sigmoid-Funktion) nach links oder rechts. Die im Bias-Term verwendeten Gewichte werden im Backpropagation-Algorithmus geändert und mithilfe von Gradientenabstieg oder fortgeschrittener Optimierungstechnik wie der fminunc-Funktion in Octave/Matlab optimiert. –