Ich verwende hortonworks Sandbox.
Schaffung Thema:Wie lade ich ein Kafka-Thema in HDFS?
./kafka-topics.sh --create --zookeeper 10.25.3.207:2181 --replication-factor 1 --partitions 1 --topic lognew
holend das Apache-Zugriffsprotokoll Verzeichnis:
tail -f /var/log/httpd/access_log |./kafka-console-producer.sh --broker-list 10.25.3.207:6667 --topic lognew
An einem anderen Anschluss (von kafka ist) startet Verbraucher:
./kafka-console-consumer.sh --zookeeper 10.25.3.207:2181 --topic lognew --from-beginning
Der Apa che Zugriffsprotokolle werden an das Kafka-Thema "lognew" gesendet.
Ich muss sie in HDFS speichern.
Irgendwelche Ideen oder Vorschläge, wie dies zu tun ist.
Vielen Dank im Voraus.
Deepthy
Vielen Dank für Ihre Antwort ... ** Ich habe versucht, Camus auszuführen, aber den folgenden Fehler erhalten: ** com.linkedin.camus.coders.MessageDecoderException: java.lang.InstantiationException: com.linkedin.camus.example. schemaregistry.DummySchemaRegistry – Deepthy
Ich denke, Sie müssen das Projekt richtig einrichten: http://etl.svbtle.com/setting-up-camus-linkedins-kafka-to-hdfs-pipeline –
Anders als mit Camus und Kobold ist da noch etwas anderes Möglichkeit, Kafka-Thema in hdfs zu laden? – Deepthy