Wenn Sie in Keras eine LSTM-Ebene mit 10 Einheiten hinzufügen möchten, verwenden Sie model.add(LSTM(10))
. Ich habe gehört, dass die Nummer 10
als die Anzahl der versteckten Einheiten here und als die Anzahl der Ausgabeeinheiten (Zeile 863 des Keras-Codes here) bezeichnet wird.Keras LSTM: erstes Argument
Meine Frage ist, sind diese beiden Dinge gleich? Ist die Dimensionalität der Ausgabe gleich der Anzahl der versteckten Einheiten? Ich habe ein paar Tutorials gelesen (wie this one und this one), aber keiner von ihnen gibt dies explizit an.
Dies scheint zu implizieren, dass die Anzahl der versteckten Einheiten die Anzahl der Ausgabeeinheiten ist, aber ich denke, das sind zwei getrennte Dinge - ein LSTM kann eine Sequenz in eine andere Sequenz codieren, wie Sie sagen, aber es kann auch gehen eine Sequenz zu einer reellen Zahl, oder? Also ist die versteckte Darstellung nicht unbedingt die gleiche wie die Ausgabe. – StatsSorceress