Ich habe einen Spark-Streaming-Job. Ich möchte Filter auf meine Eingabe RDD anwenden.Spark Streaming - Filter dynamisch
Ich möchte Filterkriterien jedes Mal dynamisch von Hbase während jeder Spark-Streaming-Batch abrufen.
Wie erreiche ich das?
Ich kann Verbindungsobjekt einmal mit Map-Partitionen erstellen.
Aber mit in Funkenfilter wie erreiche ich das gleiche?
Abhängig von Ihren Filterkriterien können Sie dies möglicherweise mit einem 'Join' erreichen. Sie müssten ein vollständigeres Beispiel dafür geben, was Sie zu tun versuchen, aber wenn die linke Seite der Verknüpfung Ihr Spark-Stream ist, wäre die rechte Seite eine Reihe von Kriterien. Wenn keines der Kriterien zutrifft, führt der Join zu keinen Zeilen - er filtert sie. –