:)ReLU-Derivat in Backpropagation
Ich bin über Backpropagation in einem neuronalen Netzwerk, das ReLU verwendet. In einem früheren Projekt von mir, ich habe es in einem Netzwerk, das Sigmoid Aktivierungsfunktion verwendet, aber jetzt bin ich ein wenig verwirrt, da ReLU hat keine Ableitung.
Hier ist ein image über wie Gewicht5 zum Gesamtfehler beiträgt. In diesem Beispiel out/net = a * (1 - a), wenn ich Sigmoid-Funktion verwende.
Was soll ich anstelle von "a * (1 - a)" schreiben, damit die Backpropagation funktioniert?
Danke.
Hängt vom tatsächlichen ReLU-Ausdruck ab. Es gibt mehrere ReLUs, die verwendet werden können. Dennoch ist es nur die Ableitung der ReLU-Funktion in Bezug auf ihr Argument. Und Sie können dies entweder von Hand oder unter Verwendung von z.B. Wolfram Alpha. Oder google es einfach. – zegkljan