Ich habe eine harte Zeit, den Unterschied zwischen Stateful und Stateless LSTMs in Keras zu konzeptualisieren. Mein Verständnis ist, dass am Ende jedes Stapels der "Status des Netzwerks im zustandslosen Fall zurückgesetzt wird", wohingegen für den statusbehafteten Fall der Zustand des Netzwerks für jeden Stapel erhalten bleibt und dann manuell auf dem Server zurückgesetzt werden muss Ende jeder Epoche.Keras - Stateful vs zustandslose LSTMs
Meine Fragen sind wie folgt: 1. Wie lernt das Netzwerk im zustandslosen Fall, wenn der Zustand zwischen Batches nicht erhalten bleibt? 2. Wann würde man die zustandslosen vs stateful-Modi eines LSTM verwenden?
In Bezug auf den Hinweis, was @ vu.pham sagte ... Wenn der LSTM "stateful" ist, werden die Informationen über vorherige Stapel in den ausgeblendeten Zuständen gespeichert, also sollten die Aktualisierungen von Stapel2 von Stapel1 abhängen, nicht wahr ? (Dies ist als der abgeschnittene BPTT von Vanille RNN zu betrachten, ich denke, da der Backprop nur ein paar Zeitschritte verwendet, aber der RNN könnte immer noch lange Abhängigkeiten lernen, länger als die Länge der Sequenz, auf der Gradienten berechnet werden) –