Ich bin auf der Suche nach einer Möglichkeit, große Google BigTable mit Filter dynamisch basierend auf den Ereignissen zu scannen und machen Bulk Update/Löschen auf eine große Anzahl von Zeilen.BigTable Bulk-Update auf der Grundlage von dynamischen Filter
Im Moment versuche ich, BigTable mit Java-basierten Dataflow (für intensive Serverless Computing Power) zu kombinieren. Ich habe den Punkt erreicht, an dem ich ein "Scan" -Objekt mit einem dynamischen Filter basierend auf den Ereignissen erstellen kann, aber ich kann immer noch keine Möglichkeit finden, Ergebnisse von CloudBigtableIO.read() zu einer nachfolgenden Datenfluss-Pipeline zu streamen.
Alle Hinweise zu schätzen wissen.