Was wäre der "empfohlene" Weg, um jede Nachricht zu verarbeiten, wie sie durch die strukturierte Streaming-Pipeline kommt (ich bin auf Spark 2.1.1 mit der Quelle kafka 0.10.2.1)?Structured Streaming - Jede Nachricht konsumieren
Bisher bin ich auf dataframe.mapPartitions
(da ich mit hbase verbinden müssen, deren Client-Verbindungsklassen nicht serizierbar sind, daher mapPartitions
).
Ideen?