Mein Programm, das ich mehrmals auf verschiedenen Clustern ausgeführt habe, stoppt plötzlich. Das Protokoll:Apache Spark auf EC2 "Killed"
15/04/20 19:19:59 INFO scheduler.TaskSetManager: Finished task 12.0 in stage 15.0 (TID 374) in 61 ms on ip-XXX.compute.internal (16/24)
15/04/20 19:19:59 INFO storage.BlockManagerInfo: Added rdd_44_14 in memory on ip-XXX.compute.internal:37999 (size: 16.0 B, free: 260.6 MB)
Killed
Was bedeutet "Getötet" und warum tritt es auf? Es gibt keine anderen Fehler.
Der Prozess wurde mehrere Stunden lang ausgeführt. Jetzt stoppt es jedoch nach vielleicht 20 Sekunden. Es besagt, dass pro Knoten ungefähr 255 MB Speicher frei sind. Wenn ich einen neuen Cluster starte, funktioniert es wieder gut. – monster