2017-11-21 3 views
0

Ich habe ein Kubernetes Cluster auf AWS aufgebauter kube-aws, aber wenn der Cluster gestartet wird, alle meine proxy und dashboard Schoten halten Absturz in CrashLoopBackoff. Als ich kubectl logs auf dem pod laufen, bekomme ich diesen Fehler:Kubernetes auf AWS: „Fehler: unbekannt Flagge: --config“

$ kubectl logs kube-proxy-7svvr -n kube-system 
Error: unknown flag: --config 

Das sagt mir, dass es irgendeine Art von Versionskonflikt ist, da das Flag sollte --kubeconfig genannt werden.

Hat jemand das schon mal gesehen? Ich bin mir nicht sicher, wie ich es richtig beheben kann.

+0

Das Flag '--config' ist korrekt und stellt den Pfad zur Konfigurationsdatei dar. '--kubeconfig' kennzeichnet den Pfad zur kubeconfig-Datei mit Autorisierungsinformationen. Welche Version von kube-aws benutzt du? – Camil

+0

Es stellte sich heraus, dass ich eine alte Version des 'kube-aws'' kubernetesVersion' Hyperkube-Images hatte. Ich werde eine Antwort posten. –

Antwort

0

Ich verwende kube-aws und lief eine alte Version von Kubernetes. Aktualisierung meiner cluster.yaml Ändern der Linie

kubernetesVersion: v1.6.6_coreos.1 

zu

kubernetesVersion: v1.7.10_coreos.0 

mein Problem behoben.

Sie finden Informationen über kube-awshere und welche möglichen Hyperkube Bilder können Sie here verwenden.

Für die Zukunft, meine Werkzeuge und Versionen, die ich jetzt läuft wie folgt zusammen (21. November 2017):

$ kubectl version 
Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"v1.8.3", GitCommit:"f0efb3cb883751c5ffdbe6d515f3cb4fbe7b7acd", GitTreeState:"clean", BuildDate:"2017-11-09T07:26:38Z", GoVersion:"go1.9.2", Compiler:"gc", Platform:"darwin/amd64"} 

$ kube-aws version 
kube-aws version v0.9.9-rc.2 

Cluster-Einstellungen:

kubernetesVersion: v1.7.10_coreos.0 
etcd.version: 3.2.9 

hoffe, das hilft jemand zu finden, dieser Thread!

Verwandte Themen