Tensorflow DropoutWrapper
ermöglicht es, Dropout auf die Eingänge, Ausgänge oder Zustände der Zelle anzuwenden. Ich habe jedoch keine Option gesehen, dasselbe für die wiederkehrenden Gewichte der Zelle zu tun (4 der 8 verschiedenen Matrizen, die in der ursprünglichen LSTM-Formulierung verwendet wurden). Ich wollte nur überprüfen, ob dies der Fall ist, bevor ich einen eigenen Wrapper implementiere, was meiner Meinung nach ganz einfach wäre.Dropout für wiederkehrende LSTM-Gewichte im Tensorfluss
1
A
Antwort
0
Es ist, weil Original LSTM Modell Dropout gilt nur auf den Eingangs- und Ausgangsschichten (nur für die nicht-wiederkehrenden Schichten.) Das Papier als „Lehrbuch“ in Betracht gezogen wird, dass die LSTM mit Dropout beschreibt: https://arxiv.org/pdf/1409.2329.pdf
Kürzlich Einige Leute versuchten, Dropout auch in wiederkehrenden Schichten anzuwenden. Wenn Sie sich die Implementierung und die dahinter stehende Mathematik ansehen möchten, suchen Sie nach "Theoretisch geerdete Anwendung von Dropout in rekurrenten neuronalen Netzwerken" von Yarin Gal. Ich bin mir nicht sicher, ob Tensorflow oder Keras diesen Ansatz bereits implementiert haben.
Verwandte Themen
- 1. Dimensionalitätsfehler mit dichter Schicht im Tensorfluss
- 2. Zyklischer Verlust im Tensorfluss
- 3. Chargennormalisierung im Tensorfluss
- 4. Sequenzmaske im Tensorfluss
- 5. 3D-Rotationsmatrix im Tensorfluss
- 6. Tensorfluss. Variablen im Checkpoint auflisten
- 7. Manipulation von Matrixelementen im Tensorfluss
- 8. Zwei Listen im Tensorfluss falten
- 9. Was macht tf.train.get_global_step() im Tensorfluss?
- 10. AlexNet konvergiert nicht im Tensorfluss
- 11. Benutzerdefiniertes Median-Pooling im Tensorfluss
- 12. Falsche Ausgabe der Vorhersagefunktion im Tensorfluss
- 13. Anhalten von Farbverläufen für eine Teilmenge eines Tensors im Tensorfluss
- 14. Optimieren einer Teilmenge eines Tensors im Tensorfluss
- 15. Kann "gen_training_ops" nicht im Tensorfluss finden GitHub
- 16. Zugriff auf implizite Tensoren im Tensorfluss
- 17. Fehler beim Berechnen zweiter Ableitungen im Tensorfluss
- 18. Äquivalenz der categorical_crossentropy-Funktion desano im Tensorfluss
- 19. Indizieren eines 1D-Tensors im Tensorfluss
- 20. Wie man einen Tensor im Tensorfluss iteriert?
- 21. Wie wird eine Umformschicht im Tensorfluss erzeugt?
- 22. Kostenfunktion gibt 'nan' im Tensorfluss aus
- 23. Wie berechnen Sie Gradienten im Tensorfluss?
- 24. Wie berechnet man die Kovarianz im Tensorfluss?
- 25. Wie wird die Einheitsvarianz im Tensorfluss berechnet?
- 26. C++ Verwendung von Eigen im Tensorfluss
- 27. Keras: der Unterschied zwischen LSTM Dropout und LSTM rezidivierender Dropout
- 28. Keras: Was ist das korrekte Datenformat für wiederkehrende Netzwerke?
- 29. Wie können Sie wiederkehrende wiederkehrende Zahlungen abziehen?
- 30. Benutzerdefinierte Dropout in Tensorflow