Ich bin neu zu funken und nicht sicher, wie dies erreicht werden kann. Irgendeine Idee, wie man Cassandra- und Verbraucher-Kafka-Strom von demselben Funkenjob abfragt. GrundsätzlichAbfrage Cassandra und konsumieren Kafka in Reihenfolge
Ich versuche Cassandra abzufragen und einige Informationen zu erhalten, wenn der Job startet.
Dann, mach weiter und konsumiere Kafka. Ich nutze die Informationen, die ich von Cassandra bekommen habe, um die Daten von Kafka zu transformieren. Also, wie kann ich die Reihenfolge dieser beiden Ereignisse sicherstellen.
Danke, aber ich bin mir immer noch nicht sicher, wie ich sicherstellen kann, dass Dinge in dieser Reihenfolge passieren. Im Grunde genommen stammen Daten zur Transformation von Daten von Cassandra. Also muss ich diese Abhängigkeit irgendwie erzwingen, so dass der Funke-Job die Transformation nur anwendet, nachdem er Daten von Cassandra gelesen hat. –
Ich bin nicht sehr Show Ich verstehe das Problem, dem Sie jetzt gegenüberstehen. Denn wenn ich mir die Methode showResults im Code https://gist.github.com/jacek-lewandowski/278bfc936ca990bee35a ansehe, denke ich, dass man einfach die System.out.println (result) ersetzen kann; mit einem Aufruf der Methode sendToKafka dieses Codes https://github.com/streamlyio/streamly-spark-examples/blob/master/streamly-mqtt-kafka/src/main/java/io/streamly/examples/StreamlyMqttKafka. Java – berrytchaks