Ich bin Anfänger in kafka. Versuchen, Daten von Kafka in hdfs zu schreiben. Es ist nirgends dokumentiert, wie Sie die kafka-connect-hdfs Java API von Confluent verwenden. Jeder Link oder Code-Snippet wird mir helfen. Danke im Voraus.Benötigen Java-Code Confluent kafka connect HDFS API
Antwort
Sie müssen die Java-API nicht für verwenden. KafkaConnect kann über die Befehlszeile oder die REST-API verwendet werden ... selbst wenn Sie Connectors aus Java auslösen, funktioniert die REST-API weiterhin.
Einige Dokumentation Ihnen den Einstieg:
Erstens, die KafkaConnect quickstart, nur in einem guten Zustand ist Ihr System, um sicherzustellen, bevor Sie versuchen, etwas fortgeschritten zu tun: http://docs.confluent.io/3.0.0/connect/intro.html#quickstart
Wenn Sie neu zu Kafka vielleicht sogar noch früher mit dem Kafka quickstart, Beginn: http://docs.confluent.io/3.0.0/quickstart.html
einmal stand-alone mehr funktioniert, versuchen Sie, verteilten Modus schalten und die REST-API Check-out: http://docs.confluent.io/3.0.0/connect/userguide.html#rest-interface
Dann versuchen Sie den HDFS-Anschluss. Entweder beginnt mit dem Quick-Start: http://docs.confluent.io/3.0.0/connect/connect-hdfs/docs/hdfs_connector.html#quickstart
Oder die Blog-Tutorial: http://www.confluent.io/blog/how-to-build-a-scalable-etl-pipeline-with-kafka-connect
Hope this auf Ihrem Weg hilft.
Sie können Kafkas Producer Java API verwenden, um zu Kafka-Themen zu schreiben.
kafka-connect-hdfs nimmt Nachrichten von Themen und legt sie in HDFS. Dies erfordert keinen Java-Code.
Sie führen es in dem kafka-connect-hdfs quickstart gezeigt hat:
unterstützt nur registrierte Themen mit Avro Datenformaten mit dem Kafka-Schema Registry$ ./bin/connect-standalone etc/schema-registry/connect-avro-standalone.properties \
etc/kafka-connect-hdfs/quickstart-hdfs.properties
Ab dem Moment, kafka-connect-hdfs.
- 1. Confluent Kafka Connect for Oracle
- 2. Kafka Connect HDFS Sink Problem
- 3. Apache-Kafka-Connect, Confluent-HDFS-Konnektor, Unknown-magic-Byte, Kafka-To-Hdfs
- 4. Kafka-Connect-HDFS - kann nicht starten HdfsSinkConnector
- 5. Kafka connect confluent elasticsearch sink (keine klassenfehler gefunden)
- 6. Fehler beim Schreiben auf HDFS mit Kafka HDFS Connect
- 7. Kafka connect mit Cassandra Datenbank
- 8. Confluent Kafka Rest Proxy Autorisierung
- 9. Kafka Connect Api - Erste Schritte?
- 10. Kafka Confluent S3 Connector „Fehlgeschlagen Klasse zu finden“
- 11. Kafka Connect HDFS-Senke für JSON-Format mit JsonConverter
- 12. Kafka connect oder Kafka Client
- 13. Kafka connect throttling
- 14. Kafka Connect to MSSQL Server Dezimalkonvertierung
- 15. Kafka und Kafka-connect auf verschiedenen Servern ausführen?
- 16. Kafka: Wie kafka-connect-sink Konnektor einrichten, um Remote-Broker-Themeninhalte abzurufen? Stellen Sie
- 17. Kafka Connect MySQL
- 18. Kafka HDFS synchron mit Datentransformation
- 19. Confluent Plattform: Schema Registry Themen
- 20. Sicherung des Zugriffs auf die REST-API von Kafka Connect
- 21. Kafka Connect Offsets. Holen/Setzen?
- 22. Kafka connect mit Cassandra Connector
- 23. Parkett-Ausgabe von Kafka Connect
- 24. konfluenten kafka-connect-jdbc java.lang.NullPointerException
- 25. Probleme beim Ausführen von kafka connect im verteilten Modus
- 26. Gibt es eine CloudFormation Vorlage für DC/OS, ElasticSearch, Kafka Connect und Kafka Streams?
- 27. Unterstützt kafka connect den aktiven/aktiven Modus im verteilten Modus?
- 28. Storm: Kafka zu HDFS - Abhängigkeit Jar Probleme
- 29. Wie kafka Thema zu Orakel mit kafka connect versenken
- 30. cassandra kafka connect source und eventuelle konsistenz
Wir müssen Daten aus dem Kafka-Stream konsumieren und in HDFS ablegen. Kleines Code-Snippet hilft. Ich bin daran interessiert, nur Java-API zu verwenden –
Sie können einfach einen Connector dafür verwenden: http://docs.confluent.io/3.0.0/connect/connect-hdfs/docs/hdfs_connector.html#quickstart –