Ich habe meine Spark-Anwendung zweimal erfolgreich ausgeführt, nachdem ich einen frischen EMR-Cluster gestartet hatte. Nach dem Ausführen einer anderen Spark-Anwendung mehrmals, die nicht genügend Speicherprobleme hat, habe ich die erste Spark-Anwendung erneut ausgeführt und keine Speicherfehler mehr erhalten.Warum bekomme ich Speicherfehler erst nach mehreren Durchläufen meiner Spark-Anwendung?
Ich wiederholte diese Abfolge von Ereignissen dreimal und es passiert jedes Mal. Was könnte passieren? Sollte Spark keinen Speicher zwischen Läufen freigeben?
Es ist schwierig, warum etwa ohne einige weitere Informationen, um herauszufinden, was genau Sie versuchen und vielleicht einen Stacktrace auf, dass Fehler nicht genügend Arbeitsspeicher zu tun. –