0

Ich verwende Kubernetes Bereitstellung mit persistenten Volumen, um meine Anwendung wie dieses Beispiel auszuführen; https://github.com/kubernetes/kubernetes/tree/master/examples/mysql-wordpress-pd , aber wenn ich versuche, weitere Replikate oder Autoscale hinzuzufügen, versuchen alle neuen Pods, sich mit demselben Volume zu verbinden. Wie kann ich gleichzeitig automatisch neue Volumes für jeden neuen Pod erstellen, wie Statefulsets (Petsets).Autoscale Volumen und Pods gleichzeitig (Kubernetes)

+0

PetSets (oder StatefulSets in Kubernetes 1.5) Um dieses Problem zu lösen, sind so konzipiert, .... warum Benutzt du sie nicht? –

+0

Ich möchte nur wissen, ob es möglich ist, es mit "Deployment" zu tun und etwas wie "volumeClaimTemplates" zu verwenden, um automatisch neue Volumes zu erzeugen, die PetSets/StatefulSets verwenden – montatich

+0

@montatich, das kann mit Deployment nicht gemacht werden. Bereitstellungen verwalten ReplicaSets, die für zustandslose Anwendungen verwendet werden, die normalerweise keinen Zugriff auf spezifische Speicher benötigen. Die richtige Lösung wäre ein StatefulSets oder mehrere ReplicaSets, die sich mit ihrem eigenen Speicher verbinden. –

Antwort

0

Die Schlussfolgerung, die ich für K8S 1.6 erreicht habe, ist, dass Sie nicht können. Sie können jedoch NFS verwenden. Wenn Ihr Cluster, wie CrateDB, einen Ordner für jeden Knoten unter dem Datenträger-Mount erstellen kann, können Sie ihn automatisch skalieren. Also, ich Auto-Skala CrateDB als Deployment mit dieser Konfiguration:

https://github.com/erik777/kubernetes-cratedb

, die auf einem nfs-Server beruht, die ich als RC mit PVC/PV bereitstellen:

SAME_BASE/kubernetes- NFS-Server

Es ist auf meiner TODO-Liste, um verteilte Dateisysteme wie GluterFS zu extrahieren. Für K8S-Bereitstellungen ist Ihre Wahl des Dateisystems Ihre Abhilfe.

Sie können auch die SIGs für Skalierbarkeit und Speicherung in der K8S-Community aktivieren, um diesen Anwendungsfall zu priorisieren. Durch Hinzufügen der Funktion zu K8S entfällt die Anforderung, dass eine Clusterlösung die Knotentrennung in einem freigegebenen Volume übernimmt, und verhindert die Einführung zusätzlicher Fehlerpunkte zwischen der geclusterten App und der PV.

GitHub Kubernetes/Gemeinde

Hoffentlich können wir eine K8S OTB Lösung von 2.0 sehen.

(ANMERKUNG: Hat 2 der GitHub Links zu ändern, weil ich "10 Ruf" nicht habe)

+0

danke für all Ihre Punkte, informierte und ich schätze die Hilfe sehr – montatich

Verwandte Themen