Ich verwende Tensorflow für die Zeitreihenklassifizierung. Ich füttere fixed window Zeitreihen zu lstm Zelle und ich versuche zu klassifizieren, wenn eine Zeitserie zu Klasse a oder Klasse b gehört. Nach einigen Trainings teste ich das Modell an neuen Zeitreihen, an denen es nie trainiert wurde. Das Problem ist, dass das Modell für jede Deferent-Zeitserie im Testdatensatz die gleiche Wahrscheinlichkeit vorhersagt. Es verhält sich wie andere Zeitserien sind gleich. Hast du irgendwelche Ideen, warum das passiert?TensorFlow lstm sagt die gleiche Klassenwahrscheinlichkeit für jedes beliebige Beispiel auf Testdatensatz voraus
0
A
Antwort
0
Sie könnten Ihre Vorverarbeitung überarbeiten.
Sie trainieren den LSTM mit bestimmten Trainingsdaten. Jetzt lernt es die Struktur dieser Daten. Eine Zeitreihe mit unterschiedlicher Vorverarbeitung ist nicht notwendigerweise auf die Mannigfaltigkeit der anderen Zeitreihen zurückzuführen. Der Grund für die ungeraden Vorhersagen bezieht sich auf this
Verwandte Themen
- 1. Regularisierung für LSTM in Tensorflow
- 2. LSTM Ptb-Modell in Tensorflow liefert das gleiche Wort die ganze Zeit
- 3. Tensorflow LSTM Modell Test
- 4. Tensorflow LSTM Regularisierung
- 5. Tensorflow LSTM-Modelle verstehen?
- 6. LSTM Backpropagation in Tensorflow
- 7. Tensorflow Sequenz-zu-Sequenz LSTM innerhalb LSTM (verschachtelt)
- 8. Platzhalter für LSTM-RNN-Parameter in TensorFlow
- 9. Tensorflow: LSTM mit gleitendem Durchschnitt der Gewichte eines anderen LSTM
- 10. Deeplearning4j: LSTM Beispiel für die Überprüfung Sentiment Analyse
- 11. Warum sagt das neuronale Netzwerk nicht voraus?
- 12. Wie lässt jedes Beispiel mehrere Batch-Einträge in Tensorflow erzeugen?
- 13. Tensorflow Connectionist Temporal Classification (CTC) Beispiel
- 14. NO Konvergenz in bidirektionaler-LSTM von Tensorflow
- 15. Wie wird die Ausgabe der vollständigen LSTM-Sequenz verwendet? tensorflow
- 16. Distributed TensorFlow Beispiel funktioniert nicht auf TensorFlow 0.9
- 17. Tensorflow Die gleiche Trainingsgenauigkeit geht weiter
- 18. Lernrate Zerfall in LSTM
- 19. LSTM-Modul für Caffe
- 20. LSTM oben auf CNN
- 21. Verschlechtert das Beispiel für das Verfallen der Lernrate auf der TensorFlow-Website tatsächlich die Lernrate?
- 22. Unaggregierte Gradienten/Gradienten pro Beispiel in Tensorflow
- 23. Großer Testdatensatz im Repository
- 24. Beliebige Beispiel-Implementierung JSON-LD-Dokument auf einer Webseite
- 25. boost :: zufällig die gleiche Anzahl jedes Mal
- 26. tensorflow: shared Variablen Fehler mit einfachen LSTM-Netzwerk
- 27. Tensor Flow LSTM für die Spracherkennung verlangsamt sich beim Training jedes weitere Wort
- 28. Wie schreibe ich ein benutzerdefiniertes LSTM in Tensorflow?
- 29. wie tensorflow verteilt mnist Beispiel
- 30. Horizontal schichtende LSTM-Zellen
Können Sie Ihren Code teilen? Die wahrscheinlichste Erklärung ist, dass ein Problem darin besteht, wie die Eingabe verarbeitet wird. – mrry
Ich machte ein Experiment, um meinem Testdatensatz eine sehr interessante Zeitserie hinzuzufügen, und das Netzwerk konnte diese unterscheiden. Daher ist das Netzwerk wahrscheinlich nicht empfindlich genug oder ich muss etwas Vorverarbeitung an den Daten vornehmen, um die Unterschiede zwischen den Beispielen zu vergrößern –