Ich habe eine Kafka - Spark-Streaming-Anwendung, um 60K Ereignisse pro Minute aufzunehmen und zu verarbeiten. Ich brauche eine Datenbank, um meine transformierten Daten zu speichern, auf die die Visualisierungsebene zugreifen soll. Kann Redshift dafür mit Spark Streaming verwendet werden oder sollte Cassandra verwendet werden? Ich werde die Datenframes in jedem Funkenfenster von 30 Sekunden verarbeiten und speichern. Außerdem muss ich in jedem Fenster aus dem Datenspeicher lesen. Ich denke, Redshift ist in erster Linie eine Data-Warehousing-Datenbank nicht für OLTP Art der Verarbeitung .. irgendwelche Ideen?Redshift mit Spark-Streaming
0
A
Antwort
0
Sie sollten SnappyData überprüfen. SnappyData integriert tief eine In-Memory-Datenbank mit Spark, die hybride OLTP/OLAP-Anwendungen ermöglicht. Sie können Spark Streaming-Anwendungen über Snappy schreiben, die Daten aus der Datenbank aktualisieren/löschen können. Weiter, weil es nicht über einen Stecker geht, hat es performs better als the myriad datastores, die Spark-Anschlüsse und sogar den nativen Spark-Cache haben. Möglicherweise befinden sich andere Datastores, die hybride OLTP/OLAP-Anwendungen auf Spark in dem zuvor genannten Link anbieten.
Haftungsausschluss: Ich bin ein SnappyData-Mitarbeiter.
Verwandte Themen
- 1. SparkStreaming/Kafka Offset Handhabung
- 2. Message in KafkaUtils010 SparkStreaming
- 3. Funktionalität und Ausführung von queueStream in SparkStreaming?
- 4. Redshift Count mit Variable
- 5. Spark-Redshift mit Python
- 6. Redshift mit SSIS/SSDT
- 7. mit DELETE Redshift Syntaxfehler
- 8. Leistungsprobleme mit Redshift Spectrum
- 9. SQLalchemy langsam mit Redshift
- 10. [SparkStreaming] Kafka ConsumerRecord ist nicht serializable
- 11. RedShift - CSV Last mit Zeilenumbruch
- 12. Zeitstempel mit Zeitzone in Redshift
- 13. Redshift Tabelle Update mit Join
- 14. listagg mit DISTINCT in redshift
- 15. copycommand Redshift
- 16. Redshift Benutzerverwaltung
- 17. Redshift regexp_substr
- 18. Redshift INET_NTOA
- 19. Sparkstreaming: CSV-String von Kafka lesen, ins Parkett schreiben
- 20. Einfügen von Daten in TitanDB mithilfe von Spark (oder SparkStreaming)
- 21. Teiid Redshift Translator unterstützt einige der Redshift SQL-Konstrukte nicht
- 22. Vaccuming Redshift interleaved Sortierschlüssel
- 23. Abrufen von Redshift-Fehlermeldungen
- 24. Redshift - Datawarehouse Daten aktualisieren
- 25. Rekursive CTE auf Redshift
- 26. RedShift-Kopie Befehl zurückgeben
- 27. Redshift SUM Funktionsproblem
- 28. Bedingung in Redshift Fensterfunktion
- 29. REST API für Redshift
- 30. Redshift (Postgres) RANGE Funktion