Ich habe eine Anforderung, Nachrichten von einem Thema zu lesen, Stapel sie und schieben Sie den Stapel auf ein externes System. Wenn der Stapel aus irgendeinem Grund fehlschlägt, muss ich denselben Satz von Nachrichten erneut verwenden und den Vorgang wiederholen. Für jeden Stapel werden die Off- und Offsets für jede Partition in einer Datenbank gespeichert. Um dies zu erreichen, erstelle ich einen Kafka-Consumer pro Partition, indem ich dem Leser eine Partition zuweise, basierend auf den gespeicherten Offsets, suchen die Konsumenten nach dieser Position und beginnen mit dem Lesen. Ich habe das automatische Commit deaktiviert und setze keine Offsets vom Konsumenten ein. Für jeden Batch erstelle ich einen neuen Benutzer pro Partition, lese Nachrichten vom letzten gespeicherten Offset und publiziere auf dem externen System. Sehen Sie Probleme beim Nachrichtenkonsum, ohne Offsets zu verordnen und die gleiche Consumer-Gruppe für mehrere Batches zu verwenden, aber zu keinem Zeitpunkt wird mehr als ein Consumer pro Partition vorhanden sein?Nachrichten konsumieren, ohne von Kafka 10 Consumer
0
A
Antwort
1
Ihr Design scheint mir vernünftig.
Das Versenden von Offsets an Kafka ist nur ein praktischer integrierter Mechanismus in Kafka, um Offsets zu verfolgen. Es ist jedoch nicht erforderlich, sie zu verwenden - Sie können auch andere Mechanismen verwenden, um Offsets zu verfolgen (wie in Ihrem Fall eine DB zu verwenden).
Darüber hinaus, wenn Sie Partitionen manuell zuweisen, wird es sowieso keine Gruppenverwaltung geben. Daher hat der Parameter group.id
keine Wirkung. Weitere Details finden Sie unter http://docs.confluent.io/current/clients/consumer.html.
Verwandte Themen
- 1. Kafka Consumer nicht konsumieren
- 2. Kafka Consumer keine Daten konsumieren
- 3. Kafka Consumer nicht konsumieren Datensätze in Server
- 4. Kafka Consumer Lesen von Nachrichten parallel
- 5. Kafka Nur ein Consumer in Consumer Group Nachrichten erhalten
- 6. Kafka Consumer verbraucht keine Nachrichten von allen Partitionen
- 7. Consumer keine Nachrichten, Kafka-Konsole, neue Consumer-API, Kafka 0,9
- 8. Spring kafka Mehrere Nachrichtentypen in einem Consumer konsumieren
- 9. Kann nicht konsumieren JSON Nachrichten von Kafka mit Kafka-Python Deserializer
- 10. Apache Kafka Consumer - von Konsole beenden
- 11. Kafka Consumer - Umfrageverhalten
- 12. Kafka kann nicht konsumieren, ohne von Anfang zu lesen -Java
- 13. Kafka Consumer/Producer API
- 14. Apache Kafka Consumer nach Datum
- 15. Pentaho Data Integration - Kafka Consumer
- 16. Erhalte Duplikate in Kafka Consumer
- 17. Apache Kafka Consumer - Analytics Platform - Daten visualisieren
- 18. kafka-consumer-groups.sh entspricht?
- 19. Spark Streaming von Kafka Consumer
- 20. Kann Kafka Consumer in Scala nicht kompilieren
- 21. konsumieren rabbitmq Nachrichten lokal gehostet
- 22. Apache Kafka - Consumer Fundamentals
- 23. Automatisches Commit Nachrichten mit Consumer-Gruppe mit kafka-Knoten
- 24. Kafka mehrere Themen konsumieren
- 25. Kafka Consumer - JMX Eigenschaften
- 26. Kafka Consumer Poll() -Methode wird blockiert
- 27. kafka Consumer Sessions Zeitüberschreitung
- 28. Querying kafka Nachrichten
- 29. Kafka Consumer Query
- 30. Consumer Commit Offsets, aber nicht durch/v2/kafka/(Cluster)/Consumer