Ich benutze Tanh als eine Aktivierungsfunktion. Nehmen wir ein Problem zum Beispiel.Wie kann ich das Lernen für feed-forward, Gradienten-basierte Backpropagation neuronalen Netze beschleunigen
XOR Problem:
1 1 0
0 1 1
1 0 1
0 0 0
Wenn ich meine neuronales Netz 500 Epochen trainieren, schauen Ergebnisse wie folgt aus:
1 1 0.001015
0 1 0.955920
1 0 0.956590
0 0 0.001293
Nach 500 Epoche:
1 1 0.000428
0 1 0.971866
1 0 0.971468
0 0 0.000525
Weitere 500 Epoche:
1 1 0.000193
0 1 0.980982
1 0 0.981241
0 0 0.000227
Es scheint, dass das Lernen sehr verlangsamt wird. Mein neuronales Netzwerk braucht Forver, um präzise genug für meine Kostenprobleme zu werden.
Gibt es trotzdem eine Beschleunigung des Lernens, nachdem es so langsam geworden ist?
Dank
Haben Sie eine Aktivierung in der Ausgabeschicht? Was ist deine Lernmethode? Parameter verwendet? Sie sollten den gesamten Code einschließen – lejlot
Welche Verlustfunktion verwenden Sie? Kreuz-Entropie? Mittlere quadratische Fehler? –