Ich habe eine einfache Spark-App, die einige Daten liest, einige Metriken berechnet und speichert dann das Ergebnis (Eingabe und Ausgabe sind Cassandra-Tabelle). Dieser Codeabschnitt wird in regelmäßigen Intervallen (d. H. Jede Minute) ausgeführt.Spark Master füllen temporäres Verzeichnis
Ich habe eine Cassandra/Spark (Spark 1.6.1) und nach ein paar Minuten ist mein temporäres Verzeichnis auf dem Master-Knoten des Spark-Clusters gefüllt, und der Master weigert sich, weitere Jobs auszuführen. Ich übermittle den Job mit der Funkenabgabe.
Was fehlt mir? Wie stelle ich sicher, dass die Master-Knoten den temporären Ordner entfernen?
Ich habe kein Problem mit den Arbeitern, es ist der Master-Knoten, der die Festplatte füllt. Jede Iteration meiner App erstellt einen neuen temporären Ordner, der das JAR selbst enthält, und sie werden nicht gelöscht, wenn der Job beendet ist. – davideanastasia
Das ist richtig, normalerweise, wenn der Funke-Submit den Job abgeschlossen hat, reinigt er temporäre Dateien. Welche Version von Spark verwenden Sie? – tesnik03