Ich versuche gerade, mir etwas über neuronale Netze beizubringen. Also kaufte ich mir das von Wolfgang Beer geschriebene Buch Applied Artificial Intelligence, und ich bin jetzt dabei, einen Teil seines Codes zu verstehen. Eigentlich verstehe ich den Code, den ich nicht nur dahinter einen mathematischen Schritt verstehen ... Das Teil sieht wie folgt aus:Wie man die Gewichte im Gradientenabstieg einstellt
for i in range(iterations):
guessed = sig(inputs*weights)
error = output - guessed
adjustment = error*sig_d(outpus)
#Why is there no learningrate?
#Why is the adjustment relative to the error
#muliplied by the derivative of your main function?
weights += adjustment
Ich habe versucht, bis zu schauen, wie die Gradientenabfallverfahren funktioniert, aber ich habe nie den Teil mit dem Justieren der Gewichte. Wie funktioniert die Mathematik dahinter und warum verwenden Sie das Derivat dafür? Alo, als ich anfing, im Internet nach anderen Lösungen zu suchen, sah ich sie immer mit einer Lernrate. Ich verstehe das Konzept, aber warum wird diese Methode in diesem Buch nicht verwendet? Es würde mir wirklich helfen, wenn mir jemand diese Fragen beantworten könnte ...
Und danke für all diese schnellen Antworten in der Vergangenheit.