Probleme mit der Containerlaufzeit auf Ihren Google Kubernetes Engine-Knoten (GKE) können zu einer Vielzahl von Arbeitslastfehlern führen, die verhindern, dass Ihre Container gestartet oder zuverlässig ausgeführt werden. Diese Probleme werden häufig durch Probleme wie Netzwerkfehlkonfigurationen, Berechtigungsprobleme oder Unterschiede zwischen Container-Runtimes verursacht.
Auf dieser Seite finden Sie Informationen zur Fehlerbehebung bei häufigen Problemen mit der Containerlaufzeit in Ihren GKE-Knotenpools. Hier finden Sie Lösungen für Probleme wie Fehler bei Bereitstellungspfaden unter Windows, fehlgeschlagene Image-Pulls aus privaten Registries, fehlende Dateisystemmesswerte, CNI-Initialisierungsfehler und Verhaltensunterschiede bei Exec-Probes.
Diese Informationen sind wichtig für Plattformadministratoren und ‑operatoren sowie Anwendungsentwickler, die Arbeitslasten in GKE-Clustern verwalten und bereitstellen. Wenn Sie diese Schritte zur Fehlerbehebung kennen, können Sie dafür sorgen, dass Ihre Container auf verschiedenen Knoten-Images und mit unterschiedlichen Konfigurationen zuverlässig ausgeführt werden. Weitere Informationen zu den gängigen Rollen und Beispielaufgaben, auf die wir inGoogle Cloud -Inhalten verweisen, finden Sie unter Häufig verwendete GKE-Nutzerrollen und -Aufgaben.
Bereitstellungspfade mit einfachen Laufwerksbuchstaben schlagen bei Windows-Knotenpools mit Containerd fehl
Dieses Problem wurde in containerd-Version 1.6.6 und höher behoben.
Bei GKE-Clustern mit Windows Server-Knotenpools, die die containerd-Laufzeitumgebung vor Version 1.6.6 verwenden, können beim Starten von Containern Fehler wie die folgenden auftreten:
failed to create containerd task : CreateComputeSystem : The parameter is incorrect : unknown
Weitere Informationen finden Sie im GitHub-Problem 6589.
Lösung
Aktualisieren Sie Ihre Knotenpools auf die neuesten GKE-Versionen, die die containerd-Laufzeitversion 1.6.6 oder höher verwenden, um dieses Problem zu beheben.
Container-Images mit nicht als Array vorangeschriebenen CMD
- oder ENTRYPOINT
-Befehlszeilen schlagen auf Windows-Knotenpools mit Containerd fehl
Dieses Problem wurde in containerd-Version 1.6 und höher behoben.
Bei GKE-Clustern mit Windows Server-Knotenpools, die die containerd-Laufzeit 1.5.X verwenden, können beim Starten von Containern Fehler wie die folgenden auftreten:
failed to start containerd task : hcs::System::CreateProcess : The system cannot find the file specified.: unknown
Weitere Informationen finden Sie unter GitHub-Problem 5067 und GitHub-Problem 6300.
Lösung
Aktualisieren Sie Ihre Knotenpools auf die neuesten GKE-Versionen, die die containerd-Laufzeitversion 1.6.6 oder höher verwenden, um dieses Problem zu beheben.
Container-Image-Volumes mit nicht existierenden Pfaden oder Linux-ähnlichen (Schrägstrich) Pfaden schlagen auf Windows-Knotenpools mit Containerd fehl
Dieses Problem wurde in containerd-Version 1.6 und höher behoben.
Bei GKE-Clustern mit Windows Server-Knotenpools, die die containerd-Laufzeit 1.5.X verwenden, können beim Starten von Containern Fehler wie die folgenden auftreten:
failed to generate spec: failed to stat "<volume_path>": CreateFile : The system cannot find the path specified.
Weitere Informationen finden Sie unter GitHub-Problem 5671.
Lösung
Aktualisieren Sie Ihre Knotenpools auf die neuesten GKE-Versionen, die die containerd-Laufzeitversion 1.6.x oder höher verwenden, um dieses Problem zu beheben.
/etc/mtab
: Datei oder Verzeichnis nicht vorhanden
Die Docker-Containerlaufzeit füllt diesen Symlink standardmäßig innerhalb des Containers aus, die containerd-Laufzeit aber nicht.
Weitere Informationen finden Sie im GitHub-Problem 2419.
Lösung
Zur Umgehung dieses Problems erstellen Sie manuell den Symlink /etc/mtab
während des Image-Builds.
ln -sf /proc/mounts /etc/mtab
Image-Pull-Fehler: kein Verzeichnis
Betroffene GKE-Versionen: alle
Wenn Sie ein Image mit kaniko erstellen, kann es sein, dass es mit containerd mit der Fehlermeldung "kein Verzeichnis" nicht abgerufen werden kann. Dieser Fehler tritt auf, wenn das Image speziell erstellt wird: Wenn ein vorheriger Befehl ein Verzeichnis entfernt und der nächste Befehl dieselben Dateien in diesem Verzeichnis neu erstellt.
Unten sehen Sie ein Dockerfile-Beispiel mit npm
, das dieses Problem veranschaulicht.
RUN npm cache clean --force
RUN npm install
Weitere Informationen finden Sie im GitHub-Problem 4659.
Lösung
Zur Behebung dieses Problems erstellen Sie Ihr Image mit docker build
, das von dem Problem nicht betroffen ist.
Wenn docker build
keine Option für Sie ist, kombinieren Sie die Befehle in einem Befehl.
Im folgenden Dockerfile-Beispiel werden RUN npm cache clean --force
und RUN npm install
kombiniert:
RUN npm cache clean --force && npm install
Einige Dateisystem-Messwerte fehlen und das Messwertformat ist unterschiedlich
Betroffene GKE-Versionen: alle
Der Kubelet-/metrics/cadvisor
-Endpunkt bietet Prometheus-Messwerte, wie unter Messwerte für Kubernetes-Systemkomponenten dokumentiert.
Wenn Sie einen Messwert-Collector installieren, der von diesem Endpunkt abhängt, werden möglicherweise die folgenden Probleme angezeigt:
- Das Messwertformat auf dem Docker-Knoten ist
k8s_<container-name>_<pod-name>_<namespace>_<pod-uid>_<restart-count>
, aber das Format auf dem containerd-Knoten ist<container-id>
. Einige Dateisystem-Messwerte fehlen so auf dem containerd-Knoten:
container_fs_inodes_free container_fs_inodes_total container_fs_io_current container_fs_io_time_seconds_total container_fs_io_time_weighted_seconds_total container_fs_limit_bytes container_fs_read_seconds_total container_fs_reads_merged_total container_fs_sector_reads_total container_fs_sector_writes_total container_fs_usage_bytes container_fs_write_seconds_total container_fs_writes_merged_total
Lösung
Sie können dieses Problem umgehen, indem Sie cAdvisor als eigenständiges Daemonset verwenden.
- Suchen Sie die neueste cAdvisor-Version mit dem Namensmuster
vX.Y.Z-containerd-cri
(z. B.v0.42.0-containerd-cri
). - Führen Sie die Schritte unter cAdvisor Kubernetes Daemonset aus, um das Daemonset zu erstellen.
- Verweisen Sie den installierten Messwert-Collector auf die Verwendung des cAdvisor-Endpunkts
/metrics
, der den vollständigen Satz von Prometheus-Containermesswerten enthält.
Alternativen
- Migrieren Sie Ihre Monitoring-Lösung zu Cloud Monitoring, die den vollständigen Satz von Containermesswerten bietet.
- Erfassen Sie Messwerte aus der Kubelet Summary API mit dem Endpunkt
/stats/summary
.
Anhangsbasierte Vorgänge funktionieren nicht korrekt, nachdem die Containerlaufzeit unter GKE Windows neu gestartet wurde
Betroffene GKE-Versionen: 1.21 bis 1.21.5-gke.1802, 1.22 bis 1.22.3-gke.700
Bei GKE-Clustern, auf denen Windows Server-Knotenpools ausgeführt werden, die die containerd-Laufzeit (Version 1.5.4 und 1.5.7-gke.0) verwenden, können Probleme auftreten, wenn die Containerlaufzeit zwangsweise neu gestartet wird, wobei Vorgänge an vorhandene ausgeführte Container angehängt, die E/A nicht wieder binden können. Das Problem führt nicht zu Fehlern bei API-Aufrufen. Es werden jedoch keine Daten gesendet oder empfangen. Dazu gehören auch Daten zum Anhängen von Log-Befehlszeilen und APIs über den Cluster-API-Server.
Lösung
Aktualisieren Sie auf die gepatchte Containerversion (1.5.7-gke.1) mit neueren GKE-Releases, um dieses Problem zu beheben.
Pods zeigen failed to allocate for range 0: no IP addresses available in range set
-Fehlermeldung an
Betroffene GKE-Versionen: 1.24.6-gke.1500 oder früher, 1.23.14-gke.1800 oder früher und 1.22.16-gke.2000 oder früher
Bei GKE-Clustern, in denen Knotenpools ausgeführt werden, die containerd verwenden, kann es zu IP-Datenlecks kommen, sodass alle Pod-IP-Adressen auf einem Knoten erschöpft sind. Ein Pod, der auf einem betroffenen Knoten geplant ist, zeigt eine Fehlermeldung ähnlich der folgenden an:
failed to allocate for range 0: no IP addresses available in range set: 10.48.131.1-10.48.131.62
Weitere Informationen zu dem Problem finden Sie unter GitHub-Problem Nr. 5438 und GitHub-Problem Nr. 5768.
In GKE Dataplane V2 gibt es ein bekanntes Problem, das dieses Problem auslösen kann. Dieses Problem kann jedoch auch durch andere Ursachen ausgelöst werden, einschließlich runc hängen.
Lösung
Folgen Sie der Anleitung unter Problemumgehungen für Standard-GKE-Cluster für GKE Dataplane V2, um dieses Problem zu beheben.
Unterschiedliches Verhalten der Exec-Prüfung, wenn die Prüfung das Zeitlimit überschreitet
Betroffene GKE-Versionen: alle
Das Verhalten von Exec-Prüfung bei containerd-Images unterscheidet sich vom Verhalten bei dockershim
-Images. Wenn die für den Pod definierte Exec-Prüfung den deklarierten Schwellenwert Kubernetes-timeoutSeconds
für dockershim
-Images überschreitet, wird dies als Prüfungsfehler behandelt.
Bei containerd-Images werden nach dem deklarierten Schwellenwert timeoutSeconds
zurückgegebene Prüfergebnisse ignoriert.
Lösung
In GKE ist das Feature Gate ExecProbeTimeout
auf false
festgelegt und kann nicht geändert werden. Erhöhen Sie den Schwellenwert timeoutSeconds
für alle betroffenen Exec-Prüfungen oder implementieren Sie die Zeitüberschreitungsfunktion als Teil der Prüfungslogik, um dieses Problem zu beheben.
Probleme mit privaten Registries beheben
Dieser Abschnitt enthält Informationen zur Fehlerbehebung bei privaten Registrierungskonfigurationen in containerd.
Das Abrufen von Images schlägt mit dem Fehler x509 fehl: Zertifikat wurde von einer unbekannten Behörde signiert
Dieses Problem tritt auf, wenn GKE kein Zertifikat für eine bestimmte private Registry-Domain finden konnte. Sie können mit der folgenden Abfrage in Cloud Logging nach diesem Fehler suchen:
Rufen Sie in der Google Cloud Console die Seite Log-Explorer auf:
Führen Sie die folgende Abfrage aus:
("Internal error pulling certificate" OR "Failed to get credentials from metadata server" OR "Failed to install certificate")
Versuchen Sie Folgendes, um dieses Problem zu beheben:
Öffnen Sie in GKE Standard die Konfigurationsdatei im folgenden Pfad:
/etc/containerd/hosts.d/DOMAIN/config.toml
Ersetzen Sie
DOMAIN
durch den FQDN für die Registry.Prüfen Sie, ob Ihre Konfigurationsdatei den richtigen FQDN enthält.
Prüfen Sie, ob der Pfad zum Zertifikat im Feld
secretURI
in der Konfigurationsdatei korrekt ist.Prüfen Sie, ob das Zertifikat in Secret Manager vorhanden ist.
Zertifikat nicht vorhanden
Dieses Problem tritt auf, wenn GKE das Zertifikat nicht aus Secret Manager abrufen konnte, um containerd auf Ihren Knoten zu konfigurieren.
Versuchen Sie Folgendes, um dieses Problem zu beheben:
- Prüfen Sie, ob auf dem betroffenen Knoten Container-Optimized OS ausgeführt wird. Ubuntu- und Windows-Knoten werden nicht unterstützt.
- Prüfen Sie, ob der Pfad zum Secret im Feld
secretURI
in Ihrer Konfigurationsdatei korrekt ist. - Prüfen Sie, ob das IAM-Dienstkonto Ihres Clusters die richtigen Berechtigungen für den Zugriff auf das Secret hat.
- Prüfen Sie, ob der Cluster den Zugriffsbereich
cloud-platform
hat. Eine Anleitung finden Sie unter Zugriffsbereiche prüfen.
Option für eine unsichere Registry für das lokale Netzwerk (10.0.0.0/8) ist nicht konfiguriert
Betroffene GKE-Versionen: alle
Bei containerd-Images ist die Option für eine unsichere Registry nicht für das lokale Netzwerk 10.0.0.0/8
konfiguriert. Wenn Sie unsichere private Registrys verwenden, können Fehler wie die folgenden auftreten:
pulling image: rpc error: code = Unknown desc = failed to pull and unpack image "IMAGE_NAME": failed to do request: Head "IMAGE_NAME": http: server gave HTTP response to HTTPS client
Versuchen Sie Folgendes, um dieses Problem zu beheben:
- Artifact Registry verwenden
- Konfigurieren Sie TLS für Ihre privaten Registrys, falls Ihr Anwendungsfall diese Option unterstützt. Sie können eine containerd-Konfigurationsdatei verwenden, um GKE anzuweisen, Zertifikate zu verwenden, die Sie in Secret Manager speichern, um auf Ihre private Registry zuzugreifen. Eine Anleitung finden Sie unter Auf private Registrys mit privaten CA-Zertifikaten zugreifen.
Privilegierte DaemonSets zum Ändern der containerd-Konfiguration konfigurieren
Führen Sie für Standardcluster die folgenden Schritte aus. Dieser Workaround ist in Autopilot nicht verfügbar, da privilegierte Container ein Sicherheitsrisiko darstellen. Wenn Ihre Umgebung mit dem Internet verbunden ist, sollten Sie Ihr Risikobereitschaft prüfen, bevor Sie diese Lösung bereitstellen. In jedem Fall empfehlen wir dringend, TLS für Ihre private Registry zu konfigurieren und stattdessen die Secret Manager-Option zu verwenden.
Prüfen Sie das folgende Manifest:
Ersetzen Sie im Feld
.spec.containers.env
denREGISTRY_ADDRESS
-Wert der VariablenADDRESS
durch die Adresse Ihrer lokalen HTTP-Registry im FormatDOMAIN_NAME:PORT
. Beispiel:containers: - name: startup-script ... env: - name: ADDRESS value: "example.com:5000"
Stellen Sie das DaemonSet bereit:
kubectl apply -f insecure-registry-ds.yaml
Das DaemonSet fügt der Containerd-Konfiguration auf jedem Knoten Ihre unsichere Registry hinzu.
containerd ignoriert alle Gerätezuordnungen für privilegierte Pods
Betroffene GKE-Versionen: alle
Bei privilegierten Pods ignoriert die Containerlaufzeit alle Gerätezuordnungen, die volumeDevices.devicePath
an sie übergeben hat. Stattdessen wird jedes Gerät auf dem Host unter /dev
für den Container verfügbar.
Containerd leitet Shim-Prozesse weiter, wenn die Knoten unter E/A-Auslastung stehen
Betroffene GKE-Versionen: 1.25.0 bis 1.25.15-gke.1040000, 1.26.0 bis 1.26.10-gke.1030000, 1.27.0 bis 1.27.6-gke.1513000 und 1.28.0 bis 1.28.0 3-gke.1061000
Wenn ein GKE-Knoten unter E/A-Auslastung steht, kann containerd die containerd-shim-runc-v2
-Prozesse beim Löschen eines Pods möglicherweise nicht löschen, was zu Datenlecks führt. Wenn das Datenleck auf einem Knoten auftritt, werden Sie mehr containerd-shim-runc-v2
-Prozesse auf dem Knoten sehen als Pods auf diesem Knoten vorhanden sind. Möglicherweise stellen Sie auch eine höhere Speicher- und CPU-Auslastung sowie zusätzliche PIDs fest.
Weitere Informationen finden Sie im GitHub-Problem Datenlecks aufgrund hoher E/A-Auslastung beheben.
Aktualisieren Sie Ihre Knoten auf die folgenden Versionen oder höher, um dieses Problem zu beheben:
- 1.25.15-gke.1040000
- 1.26.10-gke.1030000
- 1.27.6-gke.1513000
- 1.28.3-gke.1061000
IPv6-Adressfamilie ist auf Pods aktiviert, auf denen containerd ausgeführt wird
Betroffene GKE-Versionen: 1.18, 1.19, 1.20.0 bis 1.20.9
Die IPv6-Image-Familie ist für Pods aktiviert, die mit containerd ausgeführt werden. Das dockershim
-Image deaktiviert IPv6 auf allen Pods, das containerd-Image jedoch nicht. Beispielsweise wird localhost
in die IPv6-Adresse ::1
zuerst aufgelöst. In der Regel ist dies kein Problem, in bestimmten Fällen kann dies jedoch zu unerwartetem Verhalten führen.
Lösung
Verwenden Sie zur Behebung dieses Problems explizit eine IPv4-Adresse wie 127.0.0.1
oder konfigurieren Sie eine im Pod ausgeführte Anwendung so, dass sie bei beiden Adressfamilien funktioniert.
Bei der automatischen Knotenbereitstellung wird ein Container-optimiertes OS nur mit Docker-Knotenpools bereitgestellt
Betroffene GKE-Versionen: 1.18, 1.19, 1.20.0 bis 1.20.6-gke.1800
Die automatische Knotenbereitstellung ermöglicht die automatische Skalierung von Knotenpools mit beliebigen unterstützten Image-Typen, kann jedoch nur neue Knotenpools mit dem Image-Typ Container-Optimized OS mit Docker erstellen.
Lösung
Aktualisieren Sie Ihre GKE-Cluster auf Version 1.20.6-gke.1800 oder höher, um dieses Problem zu beheben. In diesen GKE-Versionen kann der Standard-Image-Typ für den Cluster festgelegt werden.
Konflikt mit dem IP-Adressbereich 172.17/16
Betroffene GKE-Versionen: 1.18.0 bis 1.18.14
Der IP-Adressbereich 172.17/16
wird von der Schnittstelle docker0
auf der Knoten-VM mit aktiviertem containerd belegt. Traffic, der an diesen Bereich gesendet wird oder von diesem stammt, wird möglicherweise nicht korrekt weitergeleitet (z. B. kann ein Pod möglicherweise keine Verbindung zu einem mit VPN verbundenen Host mit einer IP-Adresse innerhalb von 172.17/16
herstellen).
Nicht erfasste GPU-Messwerte
Betroffene GKE-Versionen: 1.18.0 to 1.18.18
GPU-Nutzungsmesswerte werden bei der Verwendung von containerd als Laufzeit in GKE-Versionen vor 1.18.18 nicht erfasst.
Lösung
Aktualisieren Sie Ihre Cluster auf GKE-Versionen 1.18.18 oder höher, um dieses Problem zu beheben.
Images mit config.mediaType
festgelegt auf application/octet-stream
können nicht für "containerd" verwendet werden
Betroffene GKE-Versionen: alle
Images mit config.mediaType
festgelegt auf "application/octet-stream"
können nicht für "containerd" verwendet werden Weitere Informationen finden Sie im GitHub-Problem 4756.
Diese Images sind nicht mit der Open Container Initiative-Spezifikation kompatibel und werden als falsch angesehen. Diese Images sind mit Docker kompatibel, um Abwärtskompatibilität zu gewährleisten. In containerd werden sie jedoch nicht unterstützt.
Symptom und Diagnose
Beispielfehler in Knotenlogs:
Error syncing pod <pod-uid> ("<pod-name>_<namespace>(<pod-uid>)"), skipping: failed to "StartContainer" for "<container-name>" with CreateContainerError: "failed to create containerd container: error unpacking image: failed to extract layer sha256:<some id>: failed to get reader from content store: content digest sha256:<some id>: not found"
Das Image-Manifest befindet sich normalerweise in der Registry, in der es gehostet wird.
Sobald Sie das Manifest haben, prüfen Sie config.mediaType
, um festzustellen, ob Sie dieses Problem haben:
"mediaType": "application/octet-stream",
Lösung
Da die containerd-Community entschieden hat, solche Images nicht zu unterstützen, sind alle Versionen von containerd betroffen und es gibt keinen Fehler. Das Container-Image muss mit Docker Version 1.11 oder höher neu erstellt werden und das Feld config.mediaType
darf nicht auf "application/octet-stream"
gesetzt sein.
CNI nicht initialisiert
Betroffene GKE-Versionen: alle
Wenn Sie einen Fehler wie den folgenden sehen, ist die CNI-Konfiguration (Container Network Interface) noch nicht bereit:
Error: "network is not ready: container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized".
Dieser Fehler kann zwei Hauptursachen haben:
- Die CNI-Installation wurde nicht abgeschlossen
- Der Webhook ist falsch konfiguriert.
Prüfen, ob die CNI-Installation abgeschlossen ist
Dieser Fehler kann während des Node-Bootstrappings in Ihren Logdateien auftreten, während GKE die CNI-Konfiguration installiert. Wenn dieser Fehler angezeigt wird, GKE aber alle Knoten korrekt erstellt, können Sie ihn ignorieren.
Das kann passieren, weil das CNI Pods mit ihrer Netzwerkverbindung versorgt. Pods benötigen also das CNI, um zu funktionieren. Kubernetes verwendet jedoch Markierungen, um Knoten zu kennzeichnen, die nicht bereit sind, und System-Pods können diese Markierungen tolerieren. Das bedeutet, dass System-Pods auf einem neuen Knoten gestartet werden können, bevor das Netzwerk bereit ist, was zu dem Fehler führt.
Warten Sie, bis GKE die Installation der CNI-Konfiguration abgeschlossen hat, um dieses Problem zu beheben. Nachdem CNI das Netzwerk konfiguriert hat, werden die System-Pods ohne Eingriff gestartet.
Falsch konfigurierte Webhooks korrigieren
Wenn der Fehler „CNI not initialized“ weiterhin auftritt und Sie feststellen, dass GKE beim Upgrade, bei der Größenanpassung oder bei anderen Aktionen keine Knoten erstellen kann, ist möglicherweise ein Webhook falsch konfiguriert.
Wenn Sie einen benutzerdefinierten Webhook haben, der den Befehl DaemonSet-Controller zum Erstellen eines Pod abfängt, und dieser Webhook falsch konfiguriert ist, wird der Fehler möglicherweise als Knotenfehlerstatus in der Google Cloud -Konsole angezeigt. Diese Fehlkonfiguration verhindert, dass GKE einen netd
- oder calico-node
-Pod erstellt. Wenn die netd
- oder calico-node
-Pods erfolgreich gestartet wurden, der Fehler aber weiter besteht, wenden Sie sich an den Kundenservice.
So beheben Sie falsch konfigurierte Webhooks:
Falsch konfigurierte Webhooks identifizieren
Wenn Sie einen Cluster mit aktivierter Dataplane V1-Durchsetzung von Netzwerkrichtlinien verwenden, können Sie auch den Status des
calico-typha
-Pods prüfen, um Informationen dazu zu erhalten, welche Webhooks diesen Fehler verursachen:kubectl describe pod -n kube-system -l k8s-app=calico-typha
Wenn der Pod einen Fehler hat, sieht die Ausgabe in etwa so aus:
Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning FailedCreate 9m15s (x303 over 3d7h) replicaset-controller Error creating: admission webhook WEBHOOK_NAME denied the request [...]
In dieser Ausgabe ist
WEBHOOK_NAME
der Name eines fehlgeschlagenen Webhooks. Ihre Ausgabe enthält möglicherweise Informationen zu einem anderen Fehlertyp.Wenn Sie die falsch konfigurierten Webhooks behalten möchten, beheben Sie die Fehler. Wenn sie nicht erforderlich sind, löschen Sie sie mit den folgenden Befehlen:
kubectl delete mutatingwebhookconfigurations WEBHOOK_NAME kubectl delete validatingwebhookconfigurations WEBHOOK_NAME
Ersetzen Sie
WEBHOOK_NAME
durch den Namen des falsch konfigurierten Webhooks, den Sie entfernen möchten.Konfigurieren Sie Ihre Webhooks so, dass System-Pods ignoriert werden.
Nächste Schritte
Wenn Sie in der Dokumentation keine Lösung für Ihr Problem finden, lesen Sie den Abschnitt Support erhalten. Dort finden Sie weitere Hilfe, z. B. zu den folgenden Themen:
- Sie können eine Supportanfrage erstellen, indem Sie sich an den Cloud Customer Care wenden.
- Support von der Community erhalten, indem Sie Fragen auf Stack Overflow stellen und mit dem Tag
google-kubernetes-engine
nach ähnlichen Problemen suchen. Sie können auch dem#kubernetes-engine
-Slack-Kanal beitreten, um weiteren Community-Support zu erhalten. - Sie können Fehler melden oder Funktionsanfragen stellen, indem Sie die öffentliche Problemverfolgung verwenden.