Ich versuche neuronales Netzwerk mit RELU zu implementieren.Neuronales Netzwerk Backpropagation mit RELU
Eingangsschicht -> 1 verborgene Schicht -> relu -> Ausgangsschicht -> softmax Schicht
Oben ist die Architektur meines neuronalen Netzes. Ich bin verwirrt über die Rückpropagation dieses Relukts. Für Derivat von RELU, wenn x < = 0, ist Ausgang 0. wenn x> 0, ist Ausgang 1. Also, wenn Sie den Gradienten berechnen, bedeutet das, dass ich Gradient abtönen, wenn x < = 0?
Kann jemand die Backpropagation meiner neuronalen Netzwerkarchitektur "Schritt für Schritt" erklären?
Sind Sie sicher, dass ist richtig? Ich habe backprop Code arbeiten, und ich änderte die Aktivierungsfunktion (im Forward-Prop-Code) und den Gradienten (im Backprop-Code) und dann konvergiert das Programm für einen einfachen XOR-Test nicht. –
@Yan König Yin Ja. Das könnte aufgrund von Eigengewichten passieren. Sie sollten auch nichts über den Farbverlauf ändern müssen. – runDOSrun
Danke, nachdem du einige Fehler behoben hast, denke ich, dass du recht hast. Für einige zufällige Anfangsgewichte könnte das gesamte Netzwerk jedoch tot sein. –