Ich bin verwirrt über was dynamische RNN (d. H. dynamic_rnn
) ist. Es gibt einen Ausgang und einen Zustand in TensorFlow zurück. Was sind das für Staat und Output? Was ist dynamisch in einem dynamischen RNN, in TensorFlow?Was ist eine dynamische RNN in TensorFlow?
Antwort
Dynamische RNNs ermöglichen variable Sequenzlängen. Möglicherweise haben Sie eine Eingabeform (batch_size, max_sequence_length)
, aber dies wird Ihnen ermöglichen, die RNN für die richtige Anzahl von Zeitschritten für die Sequenzen auszuführen, die kürzer als max_sequence_length
sind.
Im Gegensatz dazu gibt es statische RNNs, die erwarten, dass die gesamte feste RNN-Länge läuft. Es gibt Fälle, in denen Sie dies vielleicht bevorzugen, etwa wenn Sie Ihre Eingaben trotzdem auf max_sequence_length
auffüllen.
Kurz gesagt, dynamic_rnn
ist normalerweise, was Sie für sequentielle Daten variabler Länge wollen. Es hat einen sequence_length
Parameter, und es ist dein Freund.
Während AlexDelPieros Antwort das war, nach dem ich suchte, war die ursprüngliche Frage anders. Sie können sich diese detaillierte Beschreibung über LSTMs und deren Intuition ansehen. LSTM ist das häufigste Beispiel für eine RNN.
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
Die kurze Antwort ist: der Staat ein internes Detail ist, die von einem Zeitschritt zu einem anderen übergeben wird. Die Ausgabe ist ein Tensor von Ausgaben bei jedem Zeitschritt. In der Regel müssen Sie alle Ausgaben an die nächste RNN-Schicht oder die letzte Ausgabe für die letzte RNN-Schicht übergeben. Um die letzte Ausgabe zu erhalten, können Sie den Ausgang [:, - 1 ,:] verwenden
- 1. Mehrdimensionale RNN auf Tensorflow
- 2. RNN-Regression mit Tensorflow?
- 3. tensorflow 00.59 rnn Sequenztrainings
- 4. Tensorflow RNN Schicht Fehler
- 5. RNN-Zellenbenennung Problem in TensorFlow
- 6. Wie RNN in TensorFlow wiederverwenden
- 7. Tensorflow CSV-Eingang zu RNN
- 8. Beobachten tensorflow rnn Modell Gewichte
- 9. RNN und CNN auf Aktivitätserkennung in Tensorflow
- 10. Tensorflow Variable Wiederverwendung in RNN-Modul
- 11. Lernrate Initialisierung Char-RNN in Tensorflow implementiert
- 12. Tensorflow Verlust divergiert in meinem RNN
- 13. Platzhalter für LSTM-RNN-Parameter in TensorFlow
- 14. RNN-Modell in TensorFlow aus dem Speicher
- 15. Warum Tensorflow RNN nicht Spielzeug Daten lernen
- 16. Tensorflow RNN Beispiel auf feste Losgröße begrenzt?
- 17. tensorflow Verlust ist nan, während ein RNN Ausbildung
- 18. Tensorflow RNN Training wird nicht ausgeführt?
- 19. Training Tensorflow RNN mit großen Datensätzen
- 20. TensorFlow: Wie klassifiziere ich eine binäre Sequenz mit RNN?
- 21. RNN-LSTM Zeitreihen Tensorflow 0,12 Fehler
- 22. Dynamische Achsen mit einer benutzerdefinierten RNN
- 23. TensorFlow: Initialisierungszustand für RNN zwischen Inferenzen in Android
- 24. Hauptkomponentenanalyse in RNN
- 25. Wie variable Chargengröße für bidirektionale RNN in Tensorflow zu verwenden
- 26. Leistung von RNN mit langen Sequenzen in Tensorflow
- 27. Wie kombiniert man FCNN und RNN in Tensorflow?
- 28. Laufen die gleiche RNN über zwei Tensoren in Tensorflow
- 29. Probleme beim Verstehen von Datensätzen im Tensorflow RNN Tutorial
- 30. Wie kann ich eine benutzerdefinierte RNN (speziell eine ESN) in Tensorflow implementieren?
was ist state und output? können Sie erklären? – xlax