webentwicklung-frage-antwort-db.com.de

Kubernetes-Pods scheitern an "Pod-Sandbox geändert, sie wird beendet und neu erstellt"

In einem Google Container Engine-Cluster (GKE) sehe ich manchmal einen Pod (oder mehr), der nicht gestartet wird und in seinen Ereignissen nachschaut

Pod-Sandbox geändert, es wird abgebrochen und neu erstellt.

Wenn ich warte, versucht es immer wieder.
Wenn ich den Pod lösche und zulasse, dass er vom Replikatsatz der Bereitstellung neu erstellt wird, wird er ordnungsgemäß gestartet.

Das Verhalten ist inkonsistent.

Kubernetes-Versionen 1.7.6 und 1.7.8

Irgendwelche Ideen?

6
Eldad AK

Ich kann die folgende Nachricht in Google Cloud Status Dashboard sehen:

"Wir untersuchen ein Problem, das sich auf Google Container Engine (GKE) - Cluster auswirkt. Nach dem Absturz des Dockers oder dem Neustart auf einem Knoten können Pods nicht geplant werden.

Es wird angenommen, dass das Problem alle GKE-Cluster betrifft, auf denen Kubernetes v1.6.11, v1.7.8 und v1.8.1 ausgeführt wird.

Unser Engineering-Team schlägt vor: Wenn sich Knoten auf Version v1.6.11 befinden, downgraden Sie Ihre Knoten auf v1.6.10. Wenn sich Knoten auf Version v1.7.8 befinden, müssen Sie Ihre Knoten auf v1.7.6 herabstufen. Wenn sich Knoten auf Version 1.8.1 befinden, müssen Sie Ihre Knoten auf Version 1.7.6 herabstufen.

Alternative Workarounds werden auch vom Engineering-Team in this doc bereitgestellt. Diese Problemumgehungen gelten für Kunden, die ihre Knoten nicht herunterstufen können. "

7
Carlos

Ich war von demselben Problem auf einem Knoten in GKE 1.8.1-Cluster betroffen (andere Knoten waren in Ordnung). Ich habe folgendes gemacht:

  1. Stellen Sie sicher, dass Ihr Knotenpool über genügend Spielraum verfügt, um alle auf dem betroffenen Knoten geplanten Pods zu erhalten. Erhöhen Sie im Zweifelsfall den Knotenpool um 1.
  2. Entleeren Sie den betroffenen Knoten nach diesem Handbuch :

    kubectl drain <node>
    

    Sie können Warnungen über Daemonsets oder Pods mit lokalem Speicher erhalten. Fahren Sie mit dem Vorgang fort.

  3. Schalten Sie den betroffenen Knoten in der Compute Engine aus. GKE sollte einen Ersatzknoten einplanen, wenn die Poolgröße kleiner ist als in der Poolbeschreibung angegeben.