0

Lesen Sie ein bisschen durch hier (https://kubernetes.io/docs/admin/out-of-resource/) ohne am Ende mit einem klaren Verständnis; Versuchen Sie hier, mehr Informationen darüber zu sammeln, was tatsächlich passiert.Kubernetes + GKE/Status ist jetzt: NodeHasDiskPressure

Wir betreiben 2 n1-standard-2 Fälle wird eine 300Go Scheibe

angebracht

Genauer gesagt, wird ein "nodefs.inodesFree" Problem angegeben sein scheint. Und dieser ist ziemlich unklar. Es scheint während Builds zu passieren (wenn das Image erstellt wird), sollten wir verstehen, dass es zu viel Speicherplatz auf der Festplatte benötigt? Was wäre der offensichtlichste Grund?

Es fühlt sich an, als ob es nicht an die CPU/Speicheranforderungen/Grenzen gebunden ist, die auf einem Knoten angegeben werden können, aber dennoch, da wir die Grenzwerte "überstaut" haben, kann es Auswirkungen auf dieses Problem haben?

Dank für das Teilen Sie Ihre Erfahrungen auf diesem

+0

Das liest sich wie ein mögliches Duplikat von [DiskPressure den Knoten abstürzt] (http://stackoverflow.com/questions/42576661/diskpressure-crashing-the-node/42722519) – pagid

Antwort

1

Könnten Sie df -i auf dem betroffenen Knoten laufen?

+0

Sie meinen, 'kubectl exec -it Podname - - df -i? – Ben

+0

Nein. Auf dem Knoten selbst der Host-Rechner, der den DiskPressure meldet. Wenn Sie sich nicht sicher sind, führen Sie einfach auf allen Knoten ('kubectl get nodes') –

+0

aus der Cloud-Konsole aus, hier ist die Ausgabe https://gist.github.com/bbnnt/5cfd0f185c97a0e486e8db7f550dcf22. Ich habe weniger als 10 Kapseln ... Glaubst du, dass diese 300Go verfügbar sind? Kann es nicht glauben – Ben