So mein Projekt Fluss Kafka -> Spark-Streaming -> HBaseLesen von Daten aus HBase durch Funken Streaming
Jetzt möchte ich wieder Daten von HBase lesen, die sich über den Tisch durch den vorherigen Auftrag erstellt gehen und tun einige Aggregation und speichern sie in einer anderen Tabelle in verschiedenen Spaltenformat
Kafka -> Spark-Streaming (2ms) -> HBase-> Spark-Streaming (10ms) -> HBase
Nun weiß ich nicht, wie man lesen Daten aus HBase mit Spark Streaming. Ich habe ein Cloudera Lab-Projekt gefunden, das die SparkOnHbase (http://blog.cloudera.com/blog/2014/12/new-in-cloudera-labs-sparkonhbase/) -Bibliothek ist, aber ich kann nicht herausfinden, wie man einen InputDStream für die Stream-Verarbeitung von HBase erhält. Bitte geben Sie irgendwelche Hinweise oder Bibliothek Links, wenn es welche gibt, die mir dabei helfen.
Ja ich wollte nur meinen Funken Job den ersten Streaming-Job jagen. (Ich denke, einfacher Spark ist einfacher als diese). Ich werde das ausprobieren, aber ich benutze Scala und frage mich, ob die gleiche Strategie auch für Scala funktionieren wird ... Danke! –
Sie können natürlich zweimal von Kafka lesen. – miroB