2017-08-21 3 views
0

In meinem Spark-Streaming (Kafka Consumer) -Code habe einen Fehler. Ich habe die Ausnahmebehandlung implementiert, aber das hat nie geklappt. Ich habe beide überprüfte & ungeprüfte Ausnahmen versucht.Spark-Streaming-Jobs Ausnahmebehandlung

Mein Code läuft im Executor. Wie bekomme ich die Ausnahme, wenn es in Executor anstelle von Treiber ausgeführt wird?

Bitte schlagen Sie mir vor.

+0

Code-Snippet könnte hilfreich sein, um Ihr Problem zu verstehen und zu empfehlen beheben? –

Antwort

0

Spark ist ein paralleler Rahmen. Auch wenn Sie in Ihrem Code versuchen, Fangcode einzufügen, wird die Ausnahme in anderen Threads ausgelöst. Ihr Code kann also keine Ausnahme erfassen.

+0

Danke. Ja, auch wenn es nur in mehreren Executoren läuft. Wenn jemand wissen, wie man es löst, dann erklären Sie bitte hier. – Rajan