2017-01-29 1 views
0

Ich fange gerade mit kubernetes an. Ich folge dem Wiki von pipelineIO und setze alles auf. Ich habe kubernetes erfolgreich eingerichtet, aber die anderen Werkzeuge, die ich auf den Clustern ausführen muss, sind nicht so erfolgreich gegangen. Hier ist die Bash-Skript für sie:Fehler beim Einrichten von Tools auf kubernetes auf lokalem System

#!/bin/sh 

echo '...MySql...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/sql.ml/mysql-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/sql.ml/mysql-svc.yaml 

echo '...HDFS...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/hdfs.ml/hdfs-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/hdfs.ml/hdfs-svc.yaml 

echo '...Hive Metastore...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/metastore.ml/metastore-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/metastore.ml/metastore-svc.yaml 

echo '...Spark - Master...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-master-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-master-svc.yaml 

echo '...Spark - Worker...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-worker-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/apachespark.ml/spark-worker-svc.yaml 

echo '...JupyterHub...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/jupyterhub.ml/jupyterhub-rc.yaml 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/jupyterhub.ml/jupyterhub-svc.yaml 

echo '...Dashboard - Weavescope...' 
kubectl create -f https://raw.githubusercontent.com/fluxcapacitor/pipeline/master/dashboard.ml/weavescope/weavescope.yaml 
kubectl describe svc weavescope-app 

Von diesen nur weavescope wurde erfolgreich aufgebaut und rest Fehler wie im Bild angezeigt:

enter image description here

Ich verstehe nicht, was schief gelaufen ist und wie man es repariert. Ich konnte das Problem nicht beheben, indem ich online suchte. Ich glaube nicht, dass irgendwelche Docker-Images tatsächlich von Kubernetes heruntergeladen wurden, aber ich weiß nicht, ob das das Problem ist oder nicht. Bitte helfen Sie.

ps: Wenn es in irgendeiner Weise erforderlich:
OS: Ubuntu 16.04
CPU: Intel i5 6200
GPU: Nvidia GeForce 940MX

EDIT 1:
ich etwas über findSelector finden didnt nach die Abfrage kubectl describe node minikube, hier ist der Ausgang läuft:

Name:   minikube 
Role:   
Labels:   beta.kubernetes.io/arch=amd64 
      beta.kubernetes.io/os=linux 
      kubernetes.io/hostname=minikube 
Taints:   <none> 
CreationTimestamp: Mon, 30 Jan 2017 02:16:46 +0530 
Phase:   
Conditions: 
    Type   Status LastHeartbeatTime   LastTransitionTime   Reason    Message 
    ----   ------ -----------------   ------------------   ------    ------- 
    OutOfDisk   False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasSufficientDisk kubelet has sufficient disk space available 
    MemoryPressure False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasSufficientMemory kubelet has sufficient memory available 
    DiskPressure  False Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:46 +0530  KubeletHasNoDiskPressure kubelet has no disk pressure 
    Ready   True Tue, 31 Jan 2017 02:55:10 +0530  Mon, 30 Jan 2017 02:16:47 +0530  KubeletReady   kubelet is posting ready status 
Addresses:  192.168.99.100,192.168.99.100,minikube 
Capacity: 
alpha.kubernetes.io/nvidia-gpu: 0 
cpu:     2 
memory:    2049008Ki 
pods:     110 
Allocatable: 
alpha.kubernetes.io/nvidia-gpu: 0 
cpu:     2 
memory:    2049008Ki 
pods:     110 
System Info: 
Machine ID:   112c60c791a944ff93bbc446e8c28598 
System UUID:   E0D8970E-F2E2-4503-A282-756ADA83592A 
Boot ID:   9305d5d2-11e9-411a-b335-b5aa3d59432e 
Kernel Version:  4.7.2 
OS Image:   Buildroot 2016.08 
Operating System:  linux 
Architecture:   amd64 
Container Runtime Version: docker://1.11.1 
Kubelet Version:  v1.5.1 
Kube-Proxy Version:  v1.5.1 
ExternalID:   minikube 
Non-terminated Pods:  (4 in total) 
    Namespace   Name     CPU Requests CPU Limits Memory Requests Memory Limits 
    ---------   ----     ------------ ---------- --------------- ------------- 
    default   weavescope-probe-zk779   50m (2%) 50m (2%) 0 (0%)  0 (0%) 
    kube-system   kube-addon-manager-minikube  5m (0%)  0 (0%)  50Mi (2%) 0 (0%) 
    kube-system   kube-dns-v20-75pq6   110m (5%) 0 (0%)  120Mi (5%)220Mi (10%) 
    kube-system   kubernetes-dashboard-5q16v  0 (0%)  0 (0%)  0 (0%)  0 (0%) 
Allocated resources: 
    (Total limits may be over 100 percent, i.e., overcommitted. 
    CPU Requests CPU Limits Memory Requests Memory Limits 
    ------------ ---------- --------------- ------------- 
    165m (8%) 50m (2%) 170Mi (8%) 220Mi (10%) 
Events: 
    FirstSeen LastSeen Count From   SubObjectPath Type  Reason   Message 
    --------- -------- ----- ----   ------------- -------- ------   ------- 
    17m  17m  1 {kube-proxy minikube}   Normal  Starting  Starting kube-proxy. 
    17m  17m  1 {kubelet minikube}   Normal  Starting  Starting kubelet. 
    17m  17m  1 {kubelet minikube}   Warning  ImageGCFailed  unable to find data for container/
    17m  17m  1 {kubelet minikube}   Normal  NodeHasSufficientDisk Node minikube status is now: NodeHasSufficientDisk 
    17m  17m  1 {kubelet minikube}   Normal  NodeHasSufficientMemory Node minikube status is now: NodeHasSufficientMemory 
    17m  17m  1 {kubelet minikube}   Normal  NodeHasNoDiskPressure Node minikube status is now: NodeHasNoDiskPressure 
    17m  17m  1 {kubelet minikube}   Warning  Rebooted  Node minikube has been rebooted, boot id: 9305d5d2-11e9-411a-b335-b5aa3d59432e 

EDIT 2:

[email protected]:~$ kubectl get pods 
NAME      READY  STATUS    RESTARTS AGE 
hdfs-gv0ss     0/1  Completed   0   8h 
jupyterhub-master-tt81t 0/1  ContainerCreating 0   8h 
metastore-1-2-1-4qdnz  0/1  ContainerCreating 0   8h 
mysql-master-8ksch   0/1  Completed   0   8h 
spark-master-2-0-1-r8g9j 1/1  Running    1   8h 
spark-worker-2-0-1-9v45w 0/1  Completed   0   8h 
weavescope-app-lkl15  0/1  ContainerCreating 0   8h 
weavescope-probe-s5zsd  0/1  ContainerCreating 0   6h 

Die Pods sind fertiggestellt, laufen aber außer dem Funke nicht. Wie kann ich sie ausführen?

Antwort

1

Das Problem ist, dass ReplicationControllers Sie bereitstellen werden einen Knotenauswähler haben:

nodeSelector: 
    training: "true" 

Ein Knotenauswähler wird die Planung von Hülsen beeinflussen. In diesem Fall sucht der Scheduler nach Knoten mit der Bezeichnung training mit dem Wert true.

Mein Verdacht ist, dass Sie keinen Knoten mit dieser Bezeichnung haben. Um die Labels eines bestimmten Knotens zu betrachten, können Sie kubectl describe node $NODE_NAME verwenden. Weitere Informationen unter node selectors here.

Bearbeiten: Wie Sie aus der Ausgabe von kubectl sehen können, hat Ihr Knoten kein Label training=true. Der Knoten hat die Etiketten:

Name:   minikube 
Role:   
Labels: beta.kubernetes.io/arch=amd64 
     beta.kubernetes.io/os=linux 
     kubernetes.io/hostname=minikube 

Aus diesem Grund gibt es keine geeigneten Knoten ist, wo Ihre Workloads einzusetzen. Wenn Sie den Knoten beschriften möchten, können Sie kubectl label node minikube training=true.

+0

Ich habe meine Frage bearbeitet, bitte lesen Sie die Ausgabe und sagen Sie mir, was dort falsch ist. Danke –

+0

Ich aktualisierte die Antwort. – AlexBrand

+0

Bitte lesen Sie die Änderung. Ich habe alle erforderlichen Bilder gezogen, aber sie laufen nicht. –

Verwandte Themen