Ich habe einen großen Textkorpus von etwa ~ 7M Zeichen, die ich ein LSTM-Netzwerk auf. Jedoch sehe ich durchweg, dass nach etwa der 5. Epoche, anstatt der erzeugten Sätze, sie zu völligem Müll werden. Ich habe ein Beispiel unten eingefügt:LSTM-Netzwerk beginnt nach ein paar Iterationen zu erzeugen Junk
Generating with seed: "n who is in possession of the biggest ro"
n who is in possession of the biggest ro to tato ton ant an to o
ona toon t o o taon an s to ao t tan t tout att tj ton an o t an $
Ich habe mit anderen Temperaturen auch versucht. Das oben aufgeführte Beispiel war das konservativste. Hier ist eine andere Generation:
Generating with seed: 'to sin, and most of the known world is n'
to sin, and most of the known world is na ararea t tarre a araa arae
tor tae a a aaa aaata ater tje aea arare ar araererrt tmaear araae
Zum Debuggen, ich landete Kopie der LSTM example from keras einfügen und trainiert es auf meinem Korpus. Um Iteration 5 herum beginnt es, Müll zu erzeugen.
Irgendwelche Ideen, wie man dies debuggt oder was das eine Abzeichnung sein könnte? Es beginnt mit viel kohärenteren Vorhersagen, fällt aber plötzlich ab.
danke für die Antwort. Also habe ich es tatsächlich über 21 Stunden, ~ 100 Epochen trainieren lassen, aber es gab keine Verbesserung in seiner Ausgabe. Ich werde versuchen, den Wahrscheinlichkeitswert zu überprüfen und zu sehen, was es ergibt. Dies war die Ausgabe von der letzten Iteration mit der höchsten Temperatur: um jeden einzelnen Rick zu töten und um zu töten oder um die Ohnmacht zu überwinden – shekit