Es gibt viele Optionen für Aktivierungsfunktionen wie Identität, Logistik, Tanh, Relu usw. Die Wahl der Aktivierungsfunktion kann auf der Gradientenberechnung (Backpropagation) basieren. Z.B. Die logistische Funktion ist immer differenzierbar, aber sie sättigt sich, wenn die Eingabe einen großen Wert hat, und verlangsamt daher die Geschwindigkeit der Optimierung. In diesem Fall wird Relu über Logistik bevorzugt. Oben ist nur ein einfaches Beispiel für die Auswahl der Aktivierungsfunktion. Es hängt wirklich von der tatsächlichen Situation ab. Außerdem denke ich nicht, dass die Aktivierungsfunktionen, die im neuronalen XOR-Netzwerk verwendet werden, in komplexeren Anwendungen repräsentativ sind.
Vielen Dank! Aber ich kenne alle Berechnungen. Meine Frage war: Wann sollte ich welche Aktivierungsfunktion benutzen? Also warum sollte ich die Sigmoid-Aktivierungsfunktion anstelle der Relu verwenden. –
Sorry, ich habe Ihre Frage nicht verstanden, vielleicht kann dieser Link Ihnen helfen: https://stats.stackexchange.com/questions/218542/which-activation-function-for-output-layer – Carlos