Kann MongoDB als Datenquelle zu Apache Flink für die Verarbeitung der Daten-Streaming verwendet? Was ist die native Implementierung von Apache Flink zu verwenden No-SQL-Datenbank als Datenquelle?MongoDB als Datenquelle Flink
1
A
Antwort
2
Momentan hat Flink keinen dedizierten Konnektor zum Lesen von MongoDB. Was Sie tun können, ist das folgende:
- Verwenden
StreamExecutionEnvironment.createInput
und bietet einen Eingang Hadoop-Format für MongoDB Flink der Wrapper-Eingabeformat mit - Implementieren Sie Ihre eigene MongoDB Quelle über
SourceFunction
/ParallelSourceFunction
ehemalige Umsetzung sollte Ihnen mindestens einmal Verarbeitungsgarantien geben, da die MongoDB-Sammlung im Falle einer Wiederherstellung vollständig neu gelesen wird. Abhängig von der Funktionalität des MongoDB-Clients können Sie möglicherweise genau einmal Verarbeitungsgarantien mit dem letzteren Ansatz implementieren.
Verwandte Themen
- 1. Kafka -> Flink DataStream -> MongoDB
- 2. Flink mit Kafka als Quelle
- 3. Abfrage als Widget Datenquelle
- 4. Textdatei als Datenquelle in SSRS
- 5. ob flink unterstützt einen flink-Job auszusetzen?
- 6. gridview mit mehr als eine Datenquelle
- 7. Mit SSIS als Datenquelle für Reporting Services
- 8. Binden eines SortedList als Datenquelle meiner Datagridview
- 9. Wird Cassandra als Quartz-Datenquelle unterstützt?
- 10. Verwenden einer Datei als Datenquelle für UITableView
- 11. PerformancePoint- und Sharepoint-Liste als Datenquelle
- 12. Kann Elasticsearch als primäre Datenquelle verwendet werden?
- 13. Anzeige der verknüpften Datenquelle als Sharepoint-Liste
- 14. HighCharts Bubble-Graph JSON als Datenquelle
- 15. Wie konfiguriere ich Morphia/MongoDB Datenquelle in PlayFramework 2.5 (JAVA)
- 16. Flink: Fensterauswertung
- 17. Apache Flink - Gebrauchswerte aus einem Datenstrom, um dynamisch eine Streaming-Datenquelle zu erstellen
- 18. MongoDB als primäre Datenbank?
- 19. MongoDB auswählen als?
- 20. MongoDB als Dateispeicher
- 21. /windowApache Flink-Kettenoperatoren
- 22. flink - Zeppelin - antwortet nicht
- 23. Flink Batch-Datenverarbeitung
- 24. Flink: Trigger.onElement Arbeits
- 25. Wiederherstellen Zustand Konsistenz in Flink, wenn Kafka als EventStor
- 26. Apache Flink ALS mit ids in Long statt Int
- 27. KAFKA + FLINK 1.1.2 Verbraucher Gruppe funktioniert nicht als freigestellt
- 28. Apache Flink und Ereignissequenzierung
- 29. Flink Paket fehlende Klasse CheckpointCommitter - flink-connector-cassandra - schwerer Fehler
- 30. Realm als Datenquelle für TableView - wie man verschiedene Objekte in der Datenquelle speichert
Vielen Dank :) Versuchte Implementierung mit ** SourceFunction ** und es hat funktioniert. :) – Arch