2014-09-09 9 views
5

Für einige Szenarien ist ein Clustered-Dateisystem einfach zu viel. Dies ist, wenn ich es richtig verstanden habe, der Anwendungsfall für the data volume container pattern. Aber auch CoreOS benötigt von Zeit zu Zeit Updates. Wenn ich die Ausfallzeit von Anwendungen noch minimieren möchte, müsste ich den Daten-Volume-Container mit dem App-Container auf einen anderen Host verschieben, während der alte Host aktualisiert wird.Verschieben von Andockdatenvolumencontainern zwischen CoreOS-Hosts

Gibt es Best Practices? Eine häufiger erwähnte Lösung ist die "backup" of a container mit docker export auf dem alten Host und docker import auf dem neuen Host. Aber das würde das Scannen von TAR-Dateien an einen anderen Host beinhalten. Kann dies mit fleet verwaltet werden?

+0

möglich Duplikat [Der richtige Weg, um eine Nur-Daten-Docker Behälter zu bewegen von einer Maschine zur anderen] (http://stackoverflow.com/questions/25730852/the-right-way-to-move-a-data-only-docker-container-from-on-machine-and-andere) –

+0

Ich hoffe nicht. Meine Frage ist CoreOS-spezifisch und ich hoffe, dass Flotte genutzt werden kann, um den Prozess zu koordinieren. Allerdings können die Antworten aus der anderen Frage tatsächlich auf CoreOS übertragen werden, solange sie nicht mit dem Design von CoreOS kollidieren. – brejoc

+0

Ich denke, dass die richtige Lösung, die hier vorgeschlagen wird, anwendungsspezifisch sein wird. Welche Art von Daten verwalten Sie im Andockvolume und für welchen Dienst möchten Sie die Ausfallzeit minimieren? – jkingyens

Antwort

3

@brejoc, ich würde das nicht eine Lösung nennen, aber es kann helfen:

Alternative 1: ein anderes Betriebssystem verwenden, das Clustering verfügt, oder zumindest - ist es nicht verhindern. Ich experimentiere jetzt mit CentOS. 2: Ich habe ein paar Tools erstellt, die in einigen Anwendungsfällen hilfreich sind. Erstes Werkzeug, ruft Daten von S3 ab (normalerweise Artefakte) und ist unidirektional. Das zweite Tool, das ich "Backup-Volume-Container" nenne, hat viel Potential, benötigt aber Feedback. Es bietet eine 2-Wege-Sicherung/Wiederherstellung für Daten von/zu vielen persistenten Datenspeichern, einschließlich S3 (aber auch Dropbox, was cool ist). Wie es jetzt implementiert wird, wenn Sie es zum ersten Mal ausführen, würde es in den Container wiederherstellen. Von diesem Zeitpunkt an würde es den relevanten Ordner im Container auf Änderungen überwachen und bei Änderungen (und nach einer stillen Zeit) würde es in den persistenten Speicher zurückkehren.

Backup-Volumenbehälter: https://registry.hub.docker.com/u/yaronr/backup-volume-container/ Datei-Synchronisierung von S3: https://registry.hub.docker.com/u/yaronr/awscli/ (Docker Lauf yaronr/awscli aws s3 etc etc - aws docs lesen)

+0

@brejoc, danke.Es wird nett sein, wenn Sie Backup-Volume-Container ausprobieren und mir Ihre Gedanken geben. Bisher haben viele Leute heruntergeladen, aber ich habe keine Kommentare erhalten, daher kann ich nicht wissen, ob die Leute es wirklich nützlich finden – JRun

Verwandte Themen