Was macht Checkpointing für Apache Spark, und braucht es irgendwelche Zugriffe auf RAM oder CPU?Was macht Checkpointing bei Apache Spark?
1
A
Antwort
1
Von Apache Streaming Documentation - Hoffe, es hilft:
Ein Streaming-Anwendung muss 24/7 betreiben und damit zu Ausfällen in keinem Zusammenhang mit der Anwendungslogik elastisch sein müssen (zum Beispiel Systemausfälle, JVM Abstürze, etc.). Damit dies möglich ist, muss Spark Streaming genügend Informationen an ein fehlertolerantes Speichersystem senden, damit es sich von Fehlern erholen kann. Es gibt zwei Arten von Daten, die überprüft werden.
- Konfiguration - Die Konfiguration, die zum Erstellen der Streaming-Anwendung verwendet wurde.
- DStream-Operationen - Die DStream-Operationen , die die Streaming-Anwendung definieren.
- Unvollständige Chargen
- Chargen, deren Jobs in die Warteschlange gestellt, aber noch nicht abgeschlossen sind.
Zusammenfassend, Metadaten Checkpointing wird in erster Linie für die Wiederherstellung von Treiberfehlern benötigt, während Daten oder RDD Checkpointing ist auch für die grundlegende Funktionsweise notwendig, wenn Stateful Transformationen verwendet werden.
Verwandte Themen
- 1. Spark - Checkpointing Auswirkungen auf die Leistung
- 2. Apache Spark löst NullPointerException bei fehlendem Feature
- 3. Apache Spark vs Apache Storm
- 4. Was macht Expression.Compile bei Monotouch?
- 5. Apache Drill vs Spark
- 6. Simulieren Job Checkpointing Java
- 7. Apache Spark-Build-Fehler
- 8. Fallklassengleichheit in Apache Spark
- 9. Bluemix Apache Spark Metrics
- 10. Apache Spark RDD-Workflow
- 11. Apache Spark App-Workflow
- 12. Zugriffskontrolle für Apache spark
- 13. Datenverteilung in Apache Spark
- 14. Apache Spark-Implementierung
- 15. Apache Spark-Fehler
- 16. Apache Spark Stderr und Stdout
- 17. Apache Spark - MLlib - Matrix Multiplikation
- 18. Was macht InMemoryColumnarTableScan?
- 19. Was macht on_delete bei Django-Modellen?
- 20. Was macht $ bei der Verwendung von JQuery?
- 21. Apache Spark auf EC2 "Killed"
- 22. Fehler mit Apache Spark-Installations
- 23. Apache Phoenix vs Hive-Spark
- 24. Apache Spark SQL-Kontext dropDuplicates
- 25. Lambda-Architektur mit Apache Spark
- 26. Apache Spark-merge nach updateStateByKey()
- 27. Apache Spark TFIDF mit Python
- 28. Java-Anforderungen in Apache Spark
- 29. Apache Spark: Netzwerkfehler zwischen Executoren
- 30. Was ist der Unterschied zwischen Apache Spark SQLContext und HiveContext?
Was verstehen Sie nicht beim Lesen der Dokumentation? http://spark.apache.org/docs/latest/streaming-programming-guide.html#checkpointing –
Mögliches Duplikat von [Was ist der Unterschied zwischen Spark Checkpoint und persistieren auf eine Festplatte] (http://stackoverflow.com/ Fragen/35127720/Was ist der Unterschied zwischen Spark-Checkpoint und Persist-to-a-Disk – zero323