2016-08-23 1 views
0

Ich habe einen eingehenden Datenstrom (Daten, die von einer Website abgekratzt werden), die in verschiedene Systeme mit unterschiedlichen Formaten gehen müssen. Der Stream kommt sehr detailliert im JSON-Format an und sollte in ElasticSearch verschoben werden, aber einige Aggregate dieser Daten sollten einer relationalen Datenbank und sogar einer Graph-Datenbank hinzugefügt werden. Wäre das ein guter Anwendungsfall für Kafka/Storm bei Verbrauchern für ElasticSearch, Neo4J etc.? Außerdem möchte ich einige Informationen für mein Überwachungssystem aus dem anfänglichen Datenstrom ableiten, so dass ich möglicherweise auch einen Überwachungskonsumenten habe. Dies ist eher eine architektonische Frage, wenn es für diesen Anwendungsfall sinnvoll ist, etwas wie Kafka und Storm zu betrachten. Danke PhilippBaudatenpipeline mit Kafka, Storm und Elasticsearch

Antwort

1

Ja, das klingt wie ein guter Anwendungsfall Kafka für das Streaming von Daten und das Drücken dieser Daten in verschiedenen Datenbanken. Auf der Verarbeitungsseite haben Sie mehrere Optionen wie Storm, Flink, Spark, Sie können eine basierend auf Ihrem Anwendungsfall wählen

+0

Dank Sunil. Ich habe mir die Dokumente für Storm und Flink angeschaut. Als erste Reaktion würde ich sagen, ich mag Flink, die Beispiele aus der API lesen sich sehr intuitiv und ich denke, ich könnte die Fenstermechanismen recht gut gebrauchen. Es gibt jedoch noch weitere Fragen, die Flink mit Storm vergleichen. In Storm hast du offensichtlich eine Topologie, in der du eine Kette von Dingen zu definieren scheinst. Habe ich recht, wenn ich sage, dass Sie in Flink ein Programm haben würden, um eine Transformation durchzuführen und dann wieder in Kafka einfließen, und ein anderer Flink-Konsument würde es dann potenziell konsumieren und eine weitere Transformation durchführen? –

Verwandte Themen