Auf dieser Seite wird beschrieben, wie Sie Ihre Google Kubernetes Engine-Bereitstellungen (GKE) mit Gemini Cloud Assist, einem KI-gestützten Assistenten für Google Cloudoptimieren können, um Leistung und Zuverlässigkeit zu verbessern. Die Unterstützung durch Gemini kann Empfehlungen, Codeerstellung und Fehlerbehebung umfassen.
Gemini Cloud Assist bietet viele Vorteile, darunter:
- Kosten senken: Identifizieren Sie inaktive Ressourcen, passen Sie Ihre Bereitstellungen an und optimieren Sie die Autoscaling-Konfigurationen, um unnötige Ausgaben zu minimieren.
- Zuverlässigkeit und Stabilität verbessern: Erkennen Sie proaktiv potenzielle Probleme, wie Versionsabweichungen oder fehlende Budgets für Pod-Störungen, um Ausfallzeiten zu vermeiden und die Anwendungsresilienz zu gewährleisten.
- KI-/ML-Arbeitslasten optimieren: Erhalten Sie Unterstützung bei der Bereitstellung, Verwaltung und Optimierung von KI-/ML-Arbeitslasten in GKE.
- Fehlerbehebung vereinfachen: Analysieren Sie Logs schnell und ermitteln Sie die Ursache von Fehlern, um Zeit und Aufwand zu sparen.
Diese Seite richtet sich an bestehende GKE-Nutzer sowie an Betreiber und Entwickler, die Cloud-Ressourcen bereitstellen und konfigurieren sowie Apps und Dienste bereitstellen. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die wir in Inhalten Google Cloud verweisen, finden Sie unter Häufig verwendete GKE-Nutzerrollen und -Aufgaben.
Weitere Informationen dazu, wie und wann Gemini forIhre Daten verwendet. Google Cloud
Kosten
Gemini: In der Vorabversion fallen keine Kosten für die Nutzung von Gemini Cloud Assist an.
GKE: Für die Nutzung von Gemini Cloud Assist in GKE fallen keine zusätzlichen Kosten an.
Hinweis
Bevor Sie Gemini mit GKE verwenden können, müssen Sie die folgenden Voraussetzungen erfüllen.
-
Prüfen Sie, ob für Ihr Google Cloud Projekt die Abrechnung aktiviert ist.
- Bitten Sie Ihre Identitäts- und Kontoadministratoren die erforderlichen Berechtigungen für den Zugriff auf und die Änderung Ihrer GKE-Ressourcen zu gewähren.
- Folgen Sie der Anleitung im Leitfaden zum Einrichten von Gemini Cloud Assist, um Gemini Cloud Assist in Ihrem Projekt oder Ordner zu aktivieren. Dabei werden Ihrem Prinzipal bestimmte Rollen der Identitäts- und Zugriffsverwaltung (Identity and Access Management, IAM) gewährt.
In dieser Anleitung wird davon ausgegangen, dass Sie einen GKE-Cluster und idealerweise einige Bereitstellungen haben.
Gemini Cloud Assist fragen
Sie können Gemini Cloud Assist über die Google Cloud Console aufrufen. Mit Gemini Cloud Assist können Sie Prompts in natürlicher Sprache verwenden, um schnell und effizient Hilfe bei Aufgaben zu erhalten.
So öffnen Sie Cloud Assist auf einer GKE-Seite:
Wählen Sie in der Google Cloud Console auf der Seite für die Projektauswahl ein Google Cloud Projekt aus, in dem Sie Gemini Cloud Assist aktiviert haben.
Rufen Sie in der Google Cloud Console eine bestimmte Seite in der Kubernetes Engine-Console auf.
Rufen Sie beispielsweise die Seite Kubernetes Engine-Übersicht auf.
Zur Seite „Kubernetes Engine-Übersicht“
Wenn Sie eine Frage zu einer bestimmten Ressource haben, rufen Sie zuerst die entsprechende Seite auf. Auf der Seite Cluster kann Gemini Cloud Assist Sie beispielsweise bei der Verwaltung Ihrer Cluster, der Überwachung des Clusterzustands und der Fehlerbehebung bei Clusterproblemen unterstützen. Wenn Sie Gemini auf einer bestimmten Google Cloud Console-Seite verwenden, wird Kontext für Ihre Fragen bereitgestellt. Gemini kann diesen Kontext dann zusammen mit dem Gesamtprojekt, in dem Sie sich befinden, verwenden, um genauere und präzisere Unterstützung zu bieten.
Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen, um den Bereich „Gemini Cloud Assist“ zu öffnen.
Wenn Sie dazu aufgefordert werden und mit den Nutzungsbedingungen einverstanden sind, klicken Sie auf Akzeptieren.
Geben Sie im Gemini-Bereich einen Prompt ein. Im folgenden Abschnitt finden Sie ein Beispiel für einen Workflow zur Fehlerbehebung mit Gemini.
Weitere Informationen zur Verwendung von Gemini in der Google Cloud Console finden Sie unter Gemini Cloud Assist verwenden.
Beispiel für die Fehlerbehebung mit Gemini
Gemini kann Sie bei der Fehlerbehebung in Ihren GKE-Diensten unterstützen.
Rufen Sie in der Google Cloud Console die Seite Arbeitslasten auf.
Wählen Sie die Arbeitslast aus, für die Sie eine Fehlerbehebung durchführen möchten.
Klicken Sie auf den Tab Logs.
Klicken Sie in der Symbolleiste auf spark Gemini-KI-Chat öffnen oder schließen.
Geben Sie einen Prompt ein, um das Problem zu beschreiben. Beispiel: „Bei meiner Datenbankanwendung
accounts-dbtritt eine hohe Latenz auf.“ Gemini fordert möglicherweise mehr Kontext an, z. B. den Datenbanktyp und den Umfang der Auswirkungen, z. B. die Vorgänge und Nutzer, die von der Latenz betroffen sind.Gemini kann Ihnen dann eine Anleitung zur Analyse der Logs geben und Vorschläge zur Fehlerbehebung machen.
Prüfen Sie die Vorschläge und folgen Sie ihnen, um das Problem zu beheben.
Beispiel-Prompts für Gemini Cloud Assist
In diesem Abschnitt werden einige Anwendungsfälle aus der Praxis beschrieben und Prompts vorgeschlagen, die Sie Gemini stellen können. Die tatsächlichen Antworten, die Sie erhalten, können allgemein sein, oder sie können basierend auf dem eindeutigen Zustand Ihrer Google Cloud Umgebung personalisiert und umsetzbar sein. Die Antworten können Google Cloud Console-Links zum Prüfen und Verwalten Ihrer Cloud-Ressourcen sowie Links zur relevanten Dokumentation für weitere Informationen enthalten.
Kosten senken
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Kosten senken können.
| Eingabeaufforderung | Art der Antwort |
|---|---|
| „Wie kann ich bei meinen GKE-Clustern Kosten sparen, ohne die Leistung zu beeinträchtigen?“ |
|
„Ich möchte meinen GKE-Cluster my-docker-cluster upgraden. Empfehlungen?“ |
Vorschläge zur Implementierung bestimmter Kubernetes-Konfigurationen und Best Practices, z. B.:
|
„In ein paar Wochen wird es auf dem Cluster my-docker-cluster zu einem starken Traffic-Anstieg kommen. Empfehlungen?“ |
|
| „Für welche meiner GKE-Arbeitslasten ist HPA nicht aktiviert?“ | Die Liste der Arbeitslasten, für die der horizontale Pod-Autoscaler nicht aktiviert ist. |
Zuverlässigkeit und Stabilität verbessern
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie die Zuverlässigkeit und Stabilität Ihrer GKE-Arbeitslasten verbessern können.
| Eingabeaufforderung | Art der Antwort |
|---|---|
| „Wie kann ich meine GKE-Cluster zuverlässiger machen und Ausfallzeiten vermeiden?“ |
|
„Zeige mir, wie ich meine Arbeitslasten aus dem Namespace Default in my-cluster verschieben kann.“ |
Schritte für Folgendes:
|
| „Wie kann ich Hochverfügbarkeit für meine ausgeführten Pods gewährleisten?“ |
|
GKE für KI-/ML-Arbeitslasten optimieren
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Unterstützung bei der Bereitstellung, Verwaltung und Optimierung von KI-/ML-Arbeitslasten in GKE erhalten.
| Eingabeaufforderung | Art der Antwort |
|---|---|
| „Welche Knotenpoolkonfigurationen werden für das Ausführen von umfangreichem verteiltem TensorFlow-Training in GKE mit GPUs empfohlen?“ | Empfehlungen zur Optimierung des verteilten TensorFlow-ML-Trainings in GKE können Folgendes umfassen:
|
| „Wie verwende ich GPUs in GKE für das Training?“ | Übersicht über die Schritte und Überlegungen zum Konfigurieren eines Clusters und von Arbeitslasten für die Verwendung von GPUs. |
| „Gib mir ein Beispiel für die Bereitstellung eines Containers für die Modellbereitstellung in GKE.“ | Ein Beispiel mit Beispielcode zum Bereitstellen eines Containers für die Modellbereitstellung in GKE. Das Beispiel kann Best Practices enthalten und trägt zur Skalierbarkeit bei. |
| „Welche Messwerte sollte ich verfolgen, um die Effektivität meiner Load-Balancing-Einrichtung für die Inferenz zu bewerten?“ | Die Liste der Messwerte wie Traffic-Verteilung, Latenz, Fehlerraten, CPU- und Arbeitsspeicherauslastung, um Einblicke in die Leistung und den Zustand der Load-Balancing-Einrichtung zu erhalten. |
Fehlerbehebung vereinfachen
In der folgenden Tabelle werden die Prompts beschrieben, mit denen Sie Logs schnell analysieren und die Ursache von Fehlern ermitteln können, um Zeit und Aufwand zu sparen.
| Eingabeaufforderung | Art der Antwort |
|---|---|
„Was bedeutet dieser Fehler?Readiness probe failed: Get "https://10…./abcd": context deadline exceeded (Client.Timeout exceeded while awaiting headers)“
|
Erklärt, dass das Kubelet die Bereitschaftsprüfung für den Container nicht innerhalb des definierten Zeitlimits ausführen konnte, und schlägt mögliche Ursachen und Maßnahmen zur Fehlerbehebung vor. |
„Warum stürzt meine Bereitstellung nettools mit dem Fehler ping: socket: Operation not permitted ab?“
|
Erklärt, dass der Befehl ping die Funktion CAP_NET_RAW des Sicherheitskontexts erfordert und dass Container in Kubernetes aus Sicherheitsgründen standardmäßig mit einer eingeschränkten Anzahl von Funktionen ausgeführt werden.
|
„Was bedeutet es, wenn mein Pod aufgrund des Fehlers Cannot schedule pods: No preemption victims found for incoming pod. nicht geplant werden kann?“
|
Erklärt, wie die Pod-Planung und -Vorabnutzung in Kubernetes funktioniert. Listet Schritte zur Fehlerbehebung auf, wenn kein Vorabnutzungsopfer gefunden wurde. |
Nächste Schritte
- Bessere Prompts verfassen
- Informationen zum Bereich „Gemini Cloud Assist“
- Gemini für KI-Unterstützung und -Entwicklung verwenden
- So verwendet Gemini fürIhre Daten Google Cloud