2016-08-09 6 views
0

Ich verwende Snapshot-Methode, um meine Elasticsearch-Knoten zu sichern, funktioniert wie folgt: aber nach neuen Daten zu elasticsearch hinzugefügt, ist es nicht in Snapshot enthalten, so dass wir es regelmäßig ausführen müssen, aber es wird einen Datenverlust wenn Irgendwas läuft zwischen zwei Schnappschüssen falsch ab, gibt es das sowieso? Gibt es eine kontinuierliche Backup-Methode für Elasticsearch?Gibt es eine kontinuierliche Backup-Methode für Elasticsearch?

+0

Was meinen Sie mit "es wird einen Datenverlust geben, wenn zwischen zwei Schnappschüssen etwas schief geht"? – Val

+0

Ich meine, dass Daten, die nach dem letzten Snapshot hinzugefügt werden, nicht wiederhergestellt werden, wenn Sie diesen Snapshot wiederherstellen. –

+0

Können Sie die fehlenden Daten aus einer anderen Quelle der Wahrheit wiederherstellen? Das machen Leute normalerweise. – Val

Antwort

1

Wenn Sie eine Art "Sicherung" wünschen, die synchron mit den Daten im Cluster ist, sollten Sie zwei Cluster erstellen. Wie auch immer die Indizierung, Aktualisierung, Löschung von Operationen des "Hauptclusters" erfolgt, Sie müssen diese Operationen auch auf dem "Backup" -Cluster spiegeln. Es geht nicht anders.

+0

Es ist auch erwähnenswert, dass der "synchrone" Teil schwierig zu erreichen ist, insbesondere zwischen zwei Clustern (+ möglicherweise eine andere primäre Quelle der Wahrheit), da so viel passieren kann (und es ist auch teuer). Da es kein zweiphasiges Commit gibt, ist es sehr einfach, aus der Synchronisation zu kommen. Aus Erfahrung ist es viel einfacher, einen zuverlässigen Wiederherstellungsprozess zur Hand zu haben, den Sie schnell nutzen können, wenn Daten verloren gehen. – Val

+0

Kontinuierliches Backup bedeutet entweder eines der Replikate der Indizes (aber dies bedeutet die gleiche Hardware, der gleiche Cluster) oder Echtzeit-Updates für das Backup-Ziel. Normalerweise nehmen die Benutzer regelmäßige Snapshots und behalten die ursprüngliche Quelle der Daten für einen kürzeren Zeitraum (für Neuindizierungszwecke) oder indexieren die gleichen Daten für einen Spiegelcluster. Und das ist nicht ungewöhnlich. Es ist zwar kostspielig, die Hardware zu installieren und zu konfigurieren (wahrscheinlich ein Proxy oder eine Art Lastausgleich), aber für die Echtzeit-Datensicherung gibt es keinen anderen Weg. –

+0

Definitiv zustimmen. Ich habe nur das echte Bedürfnis nach einer solchen kontinuierlichen Sicherung gefragt, d. H. Das Kosten-Nutzen-Verhältnis ist wahrscheinlich viel höher (große Kosten für geringen Nutzen), als einige der Daten neu aufbauen zu müssen, falls etwas Schlimmes passiert. Aber auch das hängt von den Anwendungsfällen und geschäftlichen Einschränkungen ab. – Val

Verwandte Themen