In diesem Dokument wird beschrieben, wie Sie die Ersteinrichtung nach der Installation der Erweiterung „Google Cloud Data Agent Kit“ für Antigravity konfigurieren.
Hinweis
Führen Sie zuerst die Schritte unter Erweiterung installieren aus.
Google Cloud Projekt und Region konfigurieren
Wenn Sie Ihr Projekt und Ihre Region noch nicht konfiguriert haben, führen Sie die folgenden Schritte aus.
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Wählen Sie Allgemein aus.
- Wählen Sie Ihre Projekt-ID und Region aus. Die Projekt-ID muss mit der Projekt-ID übereinstimmen, die Sie in der gcloud CLI angegeben haben.
- Klicken Sie auf Speichern.
Erforderliche Rollen prüfen
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
Gehen Sie zu Allgemein > Erforderliche Berechtigungen.
In der Spalte Zugriff wird angegeben, ob Sie ein Hauptkonto mit der erforderlichen Rolle sind.
Wenn Sie fehlende Berechtigungen benötigen, um die Data Agent Kit-Erweiterung für Antigravity zu verwenden, bitten Sie Ihren Administrator, Ihnen die entsprechenden Identity and Access Management (IAM)-Rollen für das Projekt zuzuweisen. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
BigQuery-Region konfigurieren
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Wählen Sie BigQuery aus.
- Wählen Sie eine BigQuery-Region aus.
- Klicken Sie auf Speichern.
Serverless-Laufzeiten für Apache Spark ansehen
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Wählen Sie Apache Spark aus. Alle serverlosen Laufzeiten für Ihr Projekt werden angezeigt.
- Klicken Sie auf den Namen einer Konfiguration für die serverlose Laufzeit, um sie aufzurufen.
Serverless-Laufzeit für Apache Spark erstellen
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Wählen Sie Apache Spark aus.
- Klicken Sie auf Erstellen.
- Füllen Sie die Felder aus und klicken Sie auf Speichern.
Serverless Runtime for Apache Spark löschen
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Wählen Sie Apache Spark aus.
- Klicken Sie für die serverlose Laufzeit, die Sie löschen möchten, auf „Aktionen“ und dann auf Löschen.
Planer einrichten
- Klicken Sie in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit, um den Einstellungseditor für das Google Cloud Data Agent Kit zu öffnen.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Klicken Sie auf Scheduler.
- Wählen Sie ein Projekt und eine Region aus. Das Projekt und die Region müssen nicht mit dem Projekt und der Region übereinstimmen, die Sie auf dem Tab „Allgemein“ ausgewählt haben.
- Wählen Sie eine Managed Service for Apache Airflow-Umgebung aus, um Workflows einzurichten.
- Klicken Sie auf Speichern.
Agent-Fähigkeiten ansehen
Die Data Agent Kit-Erweiterung für Antigravity enthält Agent-Skills, die Sie in Ihren Workflows verwenden können.
- Klicken Sie zum Öffnen des Editors für Data Cloud-Einstellungen in der Aktivitätsleiste auf das Symbol Google Cloud Data Agent Kit.
- Maximieren Sie die Einstellungen und klicken Sie dann auf Einstellungen.
- Klicken Sie auf Skills.
- Wenn Sie das Markdown lesen möchten, das einen Skill definiert, klicken Sie auf den Skill-Titel.
Abhängigkeiten installieren
Für einige Vorgänge im Google Cloud Data Agent Kit müssen Sie nach der Installation der Erweiterung zusätzliche Software installieren. In einigen Fällen werden Sie aufgefordert, der automatischen Installation zuzustimmen. In anderen Fällen müssen Sie die Software manuell installieren.
Orchestration Pipelines
Wenn Sie Orchestration Pipelines in Ihrer IDE verwenden möchten, installieren Sie Folgendes:
Notebooks
Wenn Sie einen Vorgang ausführen, für den Folgendes erforderlich ist, werden Sie in der IDE aufgefordert, Ihre Einwilligung zu geben. Anschließend wird die Software für Sie installiert:
- BigQuery DataFrames (Version 2.36 oder höher)
- Anywidget
- BigQuery ML
Damit der Agent Codezellen in Ihren Notebooks ausführen kann, können Sie die Einstellung google.datacloud.executeCellToolForNotebookMCP in den IDE-Einstellungen aktivieren.
Mit dieser Einstellung wird das execute_cell-Tool für das Notebook Model Context Protocol (MCP) aktiviert.
Fehlerbehebung
Wenn Probleme auftreten, melden Sie sich vom Google Cloud Data Agent Kit und der gcloud CLI ab und dann wieder an. Weitere Methoden zur Diagnose und Behebung von Konfigurationsfehlern finden Sie unter Fehlerbehebung bei der Data Agent Kit-Erweiterung für Antigravity.
Problem melden
So melden Sie ein Problem:
- Klicken Sie in der Aktivitätsleiste im Menü „Google Cloud Data Agent Kit“ auf Fehler melden.
- Dokumentieren Sie das Problem im angezeigten Formular und klicken Sie auf Senden.