0

Ich erstelle Streaming-Analytics-Anwendung mit Spark, Flink & Kafka. Jede Analyse/Funktionalität wird als Microservice implementiert, damit diese Analyse später in einem anderen Projekt verwendet werden kann.So erstellen Sie SPARK/Flink Stream Datenverarbeitung als Microservice (REST API)

Ich führe meinen Spark/Flink-Job perfekt in Simple Scala-Anwendung und übertrage diesen Job über Spark & Flink Cluster jeweils. Aber ich muss diesen Job starten/ausführen, wenn die REST POST startJob() -Anforderung auf meinen Web-Service aufruft.

Wie kann ich meine Spark FFlink-Datenverarbeitungsfunktion in eine Web-Service-orientierte Anwendung integrieren?

Bis jetzt habe ich versucht, Lagom Microservice aber ich fand so viele Probleme, die Sie

  1. Best approach to ingest Streaming Data in Lagom Microservice
  2. java.io.NotSerializableException using Apache Flink with Lagom

denken überprüfen kann ich ich nicht in die richtige Richtung für die Stream Processing Micro Anwendung nehme. Suchen Sie nach der richtigen Richtung, um diese Analyse über den REST-Service zu implementieren.

Antwort

0

Flink hat eine REST-API, mit der Sie Jobs senden und steuern können - sie wird von der Flink Web-Benutzerschnittstelle verwendet. Siehe docs here. Siehe auch this previous question.

Verwandte Themen