2017-01-24 5 views
-1

Wie ich verstehe, kann Spark Streams mit Spark Streaming analysieren. Und Kafka kann Daten von mehreren Quellen empfangen. Was ich nicht verstehe, ist, wenn ich einen Kafka-Cluster habe, der Daten von mehreren Quellen empfängt, werden die Daten an eine Datenbank gesendet, auf der Spark Streaming läuft? Oder wird Spark Streaming auf einem Anwendungsserver ausgeführt?Wohin fließt Spark Streaming?

Antwort

1

Wenn Sie Spark Streaming verwenden, müssen Sie einen Spark-Cluster einrichten, und Sie senden den Spark-Streaming-Job an den Cluster. Also müssen Sie 2 Cluster: Kafka + Spark (oder eigentlich 3, da Sie auch einen Zookeeper-Cluster für Kafka benötigen).

+0

also, wenn ich einen Funken Cluster habe, läuft der Funke Job auf einem Anwendungsserver? und wird im Mapreduce-Stil an den Funke-Cluster verteilt? – Khan

+1

http://spark.apache.org/docs/latest/cluster-overview.html –