2016-04-02 9 views
2

Ich habe ein Problem mit Kubernetes, die in einer virtuellen CentOS-Maschine in CloudStack ausgeführt werden. Meine Pods bleiben im Status "Ausstehend". bekam ich die folgende Fehlermeldung, wenn ich das Protokoll für eine Schote drucken:Pod in Kubernetes immer im Wartestatus

[[email protected] ~]# kubectl logs wildfly-rc-6a0fr 
    Error from server: Internal error occurred: Pod "wildfly-rc-6a0fr" in namespace "default" : pod is not in 'Running', 'Succeeded' or 'Failed' state - State: "Pending" 

Wenn ich beschreiben auf dem Pod-Befehl starten, ist dies das Ergebnis:

[[email protected] ~]# kubectl describe pod wildfly-rc-6a0fr 
Name:    wildfly-rc-6a0fr 
Namespace:   default 
Image(s):   jboss/wildfly 
Node:    kubernetes-minion1/ 
Start Time:   Sun, 03 Apr 2016 15:00:20 +0200 
Labels:    name=wildfly 
Status:    Pending 
Reason:    
Message:    
IP:    
Replication Controllers: wildfly-rc (2/2 replicas created) 
Containers: 
    wildfly-rc-pod: 
    Container ID: 
    Image:  jboss/wildfly 
    Image ID:  
    QoS Tier: 
     cpu:  BestEffort 
     memory:  BestEffort 
    State:  Waiting 
    Ready:  False 
    Restart Count: 0 
    Environment Variables: 
Volumes: 
    default-token-0dci1: 
    Type: Secret (a secret that should populate this volume) 
    SecretName: default-token-0dci1 
Events: 
    FirstSeen LastSeen Count From    SubobjectPath    Reason Message 
    ───────── ──────── ───── ────    ─────────────    ────── ─────── 
    8m  8m  1 {kubelet kubernetes-minion1} implicitly required container POD Pulled Container image "registry.access.redhat.com/rhel7/pod-infrastructure:latest" already present on machine 
    8m  8m  1 {kubelet kubernetes-minion1} implicitly required container POD Created Created with docker id 97c1a3ea4aa5 
    8m  8m  1 {kubelet kubernetes-minion1} implicitly required container POD Started Started with docker id 97c1a3ea4aa5 
    8m  8m  1 {kubelet kubernetes-minion1} spec.containers{wildfly-rc-pod}  Pulling pulling image "jboss/wildfly" 

Kubelet einige Fehler hat, dass ich Drucken Sie unten. Ist dies möglich, weil der VM nur 5 GB Speicherplatz hat?

systemctl status -l kubelet 
● kubelet.service - Kubernetes Kubelet Server 
    Loaded: loaded (/usr/lib/systemd/system/kubelet.service; enabled; vendor preset: disabled) 
    Active: active (running) since lun 2016-04-04 08:08:59 CEST; 9min ago 
    Docs: https://github.com/GoogleCloudPlatform/kubernetes 
Main PID: 2112 (kubelet) 
    Memory: 39.3M 
    CGroup: /system.slice/kubelet.service 
      └─2112 /usr/bin/kubelet --logtostderr=true --v=0 --api-servers=http://kubernetes-master:8080 --address=0.0.0.0 --allow-privileged=false --pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest 

apr 04 08:13:33 kubernetes-minion1 kubelet[2112]: W0404 08:13:33.877859 2112 kubelet.go:1690] Orphaned volume "167d0ead-fa29-11e5-bddc-064278000020/default-token-0dci1" found, tearing down volume 
apr 04 08:13:53 kubernetes-minion1 kubelet[2112]: W0404 08:13:53.887279 2112 kubelet.go:1690] Orphaned volume "9f772358-fa2b-11e5-bddc-064278000020/default-token-0dci1" found, tearing down volume 
apr 04 08:14:35 kubernetes-minion1 kubelet[2112]: I0404 08:14:35.341994 2112 provider.go:91] Refreshing cache for provider: *credentialprovider.defaultDockerConfigProvider 
apr 04 08:14:35 kubernetes-minion1 kubelet[2112]: E0404 08:14:35.397168 2112 manager.go:1867] Failed to create pod infra container: impossible: cannot find the mounted volumes for pod "wildfly-rc-oroab_default"; Skipping pod "wildfly-rc-oroab_default" 
apr 04 08:14:35 kubernetes-minion1 kubelet[2112]: E0404 08:14:35.401583 2112 pod_workers.go:113] Error syncing pod 167d0ead-fa29-11e5-bddc-064278000020, skipping: impossible: cannot find the mounted volumes for pod "wildfly-rc-oroab_default" 
apr 04 08:14:58 kubernetes-minion1 kubelet[2112]: E0404 08:14:58.076530 2112 manager.go:1867] Failed to create pod infra container: impossible: cannot find the mounted volumes for pod "wildfly-rc-1aimv_default"; Skipping pod "wildfly-rc-1aimv_default" 
apr 04 08:14:58 kubernetes-minion1 kubelet[2112]: E0404 08:14:58.078292 2112 pod_workers.go:113] Error syncing pod 9f772358-fa2b-11e5-bddc-064278000020, skipping: impossible: cannot find the mounted volumes for pod "wildfly-rc-1aimv_default" 
apr 04 08:15:23 kubernetes-minion1 kubelet[2112]: W0404 08:15:23.879138 2112 kubelet.go:1690] Orphaned volume "56257e55-fa2c-11e5-bddc-064278000020/default-token-0dci1" found, tearing down volume 
apr 04 08:15:28 kubernetes-minion1 kubelet[2112]: E0404 08:15:28.574574 2112 manager.go:1867] Failed to create pod infra container: impossible: cannot find the mounted volumes for pod "wildfly-rc-43b0f_default"; Skipping pod "wildfly-rc-43b0f_default" 
apr 04 08:15:28 kubernetes-minion1 kubelet[2112]: E0404 08:15:28.581467 2112 pod_workers.go:113] Error syncing pod 56257e55-fa2c-11e5-bddc-064278000020, skipping: impossible: cannot find the mounted volumes for pod "wildfly-rc-43b0f_default" 

Könnte jemand, bitte, mir helfen? Vielen Dank im Voraus.

Antwort

2

Die Kubernetes application troubleshooting guide empfiehlt die Ausführung von kubectl describe wildfly-rc-6a0fr, die zeigen sollte, warum der Pod nicht aus dem Status 'Ausstehend' verschoben wurde.

+3

Das letzte Ereignis, das dem Pod widerfuhr, war 'zieh Bild" jboss/wildfly "'. Es ist möglich, dass der Andockfenster danach aufhängt (d. H. Es wurden Fälle in verschiedenen Versionen von Andockfenster gemeldet). Wenn Sie verifizieren können, dass 'docker pull jboss/wildfly' auf dem Knoten funktioniert, können Sie versuchen, kubelet (den kubernetes-Knotenagenten) zu töten, um es von der Anfrage zu befreien. kubelet sollte neu gestartet werden und versucht das Bild erneut zu ziehen. –

+0

@ Yu-JuHong danke für die Antwort. Ich habe die Frage mit einigen Details zum Kubelet-Status aktualisiert. – DarkSkull

+0

Die Fehlermeldungen, die Sie gepostet haben, passieren normalerweise * nachdem * die Pod-Objekte vom api-Server gelöscht wurden. Wenn das stimmt, scheint das Problem immer noch das Image zu sein. Hast du weitere Fehlermeldungen gefunden, die der Pod im kubelet-Log enthält? –

Verwandte Themen