2017-04-19 5 views
8

Ich bekomme ein paar Fehler mit Helm, dass ich Erklärungen für anderswo nicht finden kann. Die zwei Fehler sind unten.Helm: Fehler: keine verfügbaren Release-Name gefunden

Error: no available release name found 
Error: the server does not allow access to the requested resource (get configmaps) 

Weitere Details der beiden Fehler sind im Codeblock weiter unten.

Ich habe einen Kubernetes-Cluster auf Ubuntu 16.04 installiert. Ich habe einen Master (K8SMST01) und zwei Knoten (K8SN01 & K8SN02).

Dies wurde mit kubeadm unter Verwendung von Weben-Netzwerk für 1.6 + erstellt.

Alles scheint so gut zu laufen wie Deployments, Services, Pods, etc ... DNS scheint gut zu funktionieren, dh Pods können auf Dienste mit dem DNS-Namen (myservicename.default) zugreifen.

Mit "Helm erstellen" und "Helm-Suche" arbeiten, aber die Interaktion mit der Pinne-Bereitstellung scheint nicht zu funktionieren. Tiller ist installiert und läuft gemäß der Helm-Installationsdokumentation.

[email protected]:/home/blah/charts# helm version 

Client: &version.Version{SemVer:"v2.3.0", 
GitCommit:"d83c245fc324117885ed83afc90ac74afed271b4", GitTreeState:"clean"} 
Server: &version.Version{SemVer:"v2.3.0", GitCommit:"d83c245fc324117885ed83afc90ac74afed271b4", GitTreeState:"clean"} 

[email protected]:/home/blah/charts# helm install ./mychart 

Error: no available release name found 

[email protected]:/home/blah/charts# helm ls 

Error: the server does not allow access to the requested resource (get configmaps) 

Hier sind die Lauf Schoten:

[email protected]:/home/blah/charts# kubectl get pods -n kube-system -o wide 
NAME          READY  STATUS RESTARTS AGE  IP    NODE 
etcd-k8smst01        1/1  Running 4   1d  10.139.75.19 k8smst01 
kube-apiserver-k8smst01     1/1  Running 3   19h  10.139.75.19 k8smst01 
kube-controller-manager-k8smst01   1/1  Running 2   1d  10.139.75.19 k8smst01 
kube-dns-3913472980-dm661     3/3  Running 6   1d  10.32.0.2  k8smst01 
kube-proxy-56nzd       1/1  Running 2   1d  10.139.75.19 k8smst01 
kube-proxy-7hflb       1/1  Running 1   1d  10.139.75.20 k8sn01 
kube-proxy-nbc4c       1/1  Running 1   1d  10.139.75.21 k8sn02 
kube-scheduler-k8smst01     1/1  Running 3   1d  10.139.75.19 k8smst01 
tiller-deploy-1172528075-x3d82   1/1  Running 0   22m  10.44.0.3  k8sn01 
weave-net-45335       2/2  Running 2   1d  10.139.75.21 k8sn02 
weave-net-7j45p       2/2  Running 2   1d  10.139.75.20 k8sn01 
weave-net-h279l       2/2  Running 5   1d  10.139.75.19 k8smst01 
+1

Dieser Beitrag zu sein scheint [off-topic] (http: // Stackoverflow.com/help/on-topic) gemäß * Fragen zur professionellen Server-, Netzwerk- oder verwandten Infrastrukturverwaltung sind für Stack Overflow nicht relevant, es sei denn, sie betreffen direkt Programmier- oder Programmiertools. * Ihre Frage eignet sich möglicherweise besser für [Serverfehler] (http://serverfault.com/) –

+2

@PatrickHund ich glaube nicht. Ich denke, Helm Fragen sind hier gültig. Kubernetes Community verwendet Stack Overflow. –

Antwort

9

Ich denke, es ist eine RBAC Frage. Es scheint, dass das Ruder nicht für den RBAC von 1.6.1 bereit ist.

Es gibt ein Problem auf Helms Github dafür geöffnet.

https://github.com/kubernetes/helm/issues/2224

"When installing a cluster for the first time using kubeadm v1.6.1, the initialization defaults to setting up RBAC controlled access, which messes with permissions needed by Tiller to do installations, scan for installed components, and so on. helm init works without issue, but helm list, helm install, and so on all do not work, citing some missing permission or another."

Eine temporäre Arbeit um hat vorschlagen gewesen:

"We "disable" RBAC using the command kubectl create clusterrolebinding permissive-binding --clusterrole=cluster-admin --user=admin --user=kubelet --group=system:serviceaccounts;"

Aber ich kann für seine Gültigkeit nicht sprechen. Die gute Nachricht ist, dass dies ein bekanntes Problem ist, und es wird daran gearbeitet, es zu beheben. Hoffe das hilft.

+0

Danke! Das scheint zu funktionieren. Da dies ein experimenteller "Sandbox" K8S-Cluster ist, mache ich mir keine Sorgen über die Auswirkungen. Ich muss nur mit Helm spielen können. Ich bin neu eingestellt, aber ich bin zu neu, um es in der Wertung widerzuspiegeln :( – cjp

+0

Ich bin froh, dass ich helfen konnte, Happy Helming! Ich denke, obwohl du zu neu bist, kannst du dies als die richtige Antwort markieren Ihre Frage, wenn Sie das können, würde ich es begrüßen. –

3

Ich hatte das gleiche Problem mit dem kubeadm Setup auf CentOS 7.

Helm nicht ein Dienstkonto, wenn Sie „Helm init“ und das Standard ein von der lesen nicht die Berechtigungen configmaps - es wird also nicht möglich sein, eine Prüfung auszuführen, um festzustellen, ob der zu verwendende Bereitstellungsname eindeutig ist.

Das hat mich daran vorbei:

kubectl create clusterrolebinding add-on-cluster-admin \ 
    --clusterrole=cluster-admin \ 
    --serviceaccount=kube-system:default 

aber das ist das Standardkonto Tonnen Macht geben, ich habe gerade dies, so konnte ich mit meiner Arbeit weitermachen. Helm muss dem Code "helm init" die Erstellung eines eigenen Dienstkontos hinzufügen.

17

Lösung gegeben von kujenga aus der Github-Frage, es funktionierte ohne weitere Änderungen.

kubectl create serviceaccount --namespace kube-system tiller 
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller 
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}' 
0

Per https://github.com/kubernetes/helm/issues/2224#issuecomment-356344286 beschlossen die folgenden Befehle den Fehler für mich auch:

kubectl create serviceaccount --namespace kube-system tiller 
kubectl create clusterrolebinding tiller-cluster-rule --clusterrole=cluster-admin --serviceaccount=kube-system:tiller 
kubectl patch deploy --namespace kube-system tiller-deploy -p '{"spec":{"template":{"spec":{"serviceAccount":"tiller"}}}}' 
Verwandte Themen