Fehler beheben

In diesem Dokument sind die sichtbaren Fehler aufgeführt, die von der Data Agent Kit-Erweiterung für Antigravity erfasst und angezeigt werden. Diese Fehler werden in der IDE in der Regel als Benachrichtigungen (Pop-ups) oder als Warnungen in der Statusleiste angezeigt. In dieser Anleitung erfahren Sie, wie Sie Probleme ermitteln und beheben.

Wenn Sie die Ursache eines Problems nach dem Überprüfen der hier aufgeführten möglichen Fehler nicht ermitteln können, melden Sie sich ab und dann wieder an.

Authentifizierungs- und gcloud CLI-Fehler

Diese Fehler wirken sich auf die grundlegende Verbindung der Erweiterung aus.

Fehlermeldung

Mögliche Ursache

Abhilfe

Google Cloud CLI is required... but was not found.

Die gcloud-Binärdatei befindet sich nicht im Pfad des Systems.

Installieren Sie die Google Cloud CLI und starten Sie Antigravity neu.

You must be logged in to both the Google Cloud CLI and ADC...

gcloud auth login oder gcloud auth application-default login wurde nicht ausgeführt.

Klicken Sie auf die Statusleiste oder die Benachrichtigung, um den Anmeldevorgang im Terminal auszulösen.

In der Statusleiste wird neben Ihrem Kontonamen ein $(warning)-Symbol angezeigt.

Das angemeldete Erweiterungskonto unterscheidet sich vom aktiven gcloud CLI-Konto.

Führen Sie gcloud auth login und gcloud auth application-default login mit demselben Konto aus, mit dem Sie sich angemeldet haben Google Cloud.

In der Statusleiste wird ein $(warning)-Symbol angezeigt.

Die Erweiterungseinstellungen wie Projekt-ID, Region oder Abrechnungsprojekt-ID stimmen nicht mit den gcloud CLI-Einstellungen überein.

Klicken Sie in der Projektstatusleiste auf das Warnsymbol, um die Einstellungen zwischen der Erweiterung und der gcloud CLI zu synchronisieren. Alternativ können Sie die Konfigurationen in einem der beiden Tools manuell aktualisieren, damit sie übereinstimmen.

Cannot sync settings: gcloud CLI or ADC account does not match extension account.

Es wird versucht, Einstellungen zu synchronisieren, während die Konten nicht übereinstimmen.

Gleichen Sie die Konten zwischen der gcloud CLI und der Erweiterung ab. Achten Sie darauf, dass dasselbe Nutzerkonto, Projekt, dieselbe Region und dasselbe Abrechnungsprojekt verwendet werden.

Cannot sync settings: Google Cloud CLI is not installed.

Es wird versucht, Einstellungen zu synchronisieren, während die gcloud CLI nicht installiert ist.

Installieren Sie die gcloud CLI.

Explorer- und API-Abruffehler

Die folgenden Fehler treten beim Durchsuchen von Cloud-Ressourcen in der Menüstruktur des Google Cloud Data Agent Kit auf.

Fehlermeldung

Mögliche Ursache

Abhilfe

Failed to load ${itemKind}: ${error.message}

Der Server kann Ihre Anfrage nicht autorisieren (HTTP 403 Forbidden Statuscode), die Ressourcen nicht finden (HTTP 404 Not Found Statuscode) oder die API ist nicht aktiviert.

Prüfen Sie die IAM-Berechtigungen (Identity and Access Management) und stellen Sie sicher, dass die entsprechende API, z. B. BigQuery, in den Einstellungen aktiviert ist.

No Google Cloud project selected.

Eine Funktion wurde ohne aktives Projekt ausgelöst.

Wählen Sie in der Statusleiste ein Projekt aus.

Invalid table name format: ${tableName}

Falsche Namenskonvention (Projekt-ID oder Dataset-ID fehlt).

Verwenden Sie den voll qualifizierten Namen: project.dataset.table.

BigQuery- und Dataform-Fehler

Die folgenden Fehler sind spezifisch für SQL-Transformationen und die Dataform-Projektverwaltung.

Fehlermeldung

Mögliche Ursache

Abhilfe

Dataform CLI is not installed. Dataform features will not work.

Das Dataform-npm-Paket ist nicht global installiert.

Klicken Sie im Dialogfeld auf Install Dataform CLI (Dataform CLI installieren), um die Installation zu automatisieren.

Failed to compile project in folder...: ${stderr}

Syntaxfehler in .sqlx-Dateien oder ungültige workflow_settings.yaml.

Prüfen Sie in Dataform die Ansicht Compiled Query (Kompilierte Abfrage) auf bestimmte Syntaxfehler.

Failed to run Dataform project: ${message}

Fehler bei der Ausführung des BigQuery-Jobs.

Prüfen Sie die BigQuery-Jobhistorie auf detaillierte Ausführungsprotokolle.

No content found for saved query: ${label}

Der Knowledge Catalog- oder BigQuery-Eintrag ist vorhanden, enthält aber NoSQL-Inhalte.

Prüfen Sie den Abfrageinhalt, indem Sie ihn in der Google Cloud Console ausführen.

Managed Service for Apache Spark- und Spark-Fehler

Die folgenden Fehler beziehen sich auf die Clusterverwaltung und die Spark-Ausführung.

Fehlermeldung

Mögliche Ursache

Abhilfe

Error starting/stopping/restarting cluster ${name}: ${message}

Unzureichende IAM-Berechtigungen oder Cluster in der Übergangsphase.

Achten Sie darauf, dass Sie die Rolle roles/dataproc.editor haben. Prüfen Sie, ob der Clusterstatus bereits UPDATING (Wird aktualisiert) ist.

Error: No cluster name found.

Interner Referenzfehler in der Strukturansicht.

Aktualisieren Sie die Ansicht Spark Resource Explorer (Spark-Ressourcen-Explorer).

Failed to redirect to Spark UI: ${message}

Cluster wurde beendet oder Component Gateway ist deaktiviert.

Starten Sie den Cluster und prüfen Sie, ob Component Gateway in der Clusterkonfiguration aktiviert ist.

Failed to load [clusters/jobs/sessions/session templates]: [message]

API-Fehler

Aktualisieren Sie die Ansicht Spark Resource Explorer (Spark-Ressourcen-Explorer).

Failed to start Jupyter process / Pip install failed.

Der lokale Jupyter-Server konnte nicht gestartet werden oder die Installation der erforderlichen Pakete ist fehlgeschlagen.

Öffnen Sie ein neues Spark-Notebook mit dem Remote-Kernel.

No sample notebooks found for the selected kernel type.

Beispiel-Notebooks für den ausgewählten Kerneltyp (lokal oder remote) sind nicht verfügbar.

Nicht zutreffend

This system does not have Windows Long Path support enabled. Please enable long paths and restart Antigravity to work with Spark Notebooks on remote kernels. Learn More

Dieser Fehler tritt speziell bei Windows-Nutzern auf, wenn lange Pfade auf ihrem Computer nicht aktiviert sind.

Aktivieren Sie lange Pfade über den Link in der Benachrichtigung.

google-cloud-jupyter-config and jupyter_server are required to connect to remote kernels on Managed Service for Apache Spark. Install them?

Dieser Fehler tritt auf, wenn der Nutzer zum ersten Mal einen Remote-Kernel verwendet.

Installieren Sie die Abhängigkeiten, indem Sie auf die Benachrichtigung klicken und im Bestätigungsdialogfeld Ja auswählen.

Requires package installation

Wird in der Beschreibung der Kernelauswahl neben Remote Kernel (Remote-Kernel) angezeigt, wenn Jupyter-Abhängigkeiten fehlen.

Installieren Sie die Abhängigkeiten, indem Sie auf die Benachrichtigung klicken und im Bestätigungsdialogfeld Ja auswählen.

Install dependencies for remote Spark kernels. Require google-cloud-jupyter-config and jupyter_server

Wird in der Beschreibung der Kernelauswahl angezeigt, wenn der Nutzer ein vorhandenes Notebook auf Remote Kernel (Remote-Kernel) ausführt.

Installieren Sie die Abhängigkeiten, indem Sie auf die Benachrichtigung klicken und im Bestätigungsdialogfeld Ja auswählen.

Cloud Storage-Fehler

Die folgenden Fehler treten beim Verwalten von Buckets und Objekten auf.

Fehlermeldung

Mögliche Ursache

Abhilfe

A folder with the name... already exists.

Namenskonflikt im Bucket.

Wählen Sie einen eindeutigen Ordnernamen aus.

Upload/Download failed: ${message}

Berechtigung verweigert oder Netzwerk-Timeout.

Prüfen Sie die Rollen Storage Object Admin oder Creator.

Failed to create bucket: ${message}

Name ist bereits global vergeben oder enthält ungültige Zeichen.

Beachten Sie die Regeln für die Benennung von Cloud Storage-Buckets.

Allgemeine Fehler der Benutzeroberfläche

Diese Fehler weisen auf Fehler auf UI-Ebene hin.

Fehlermeldung

Mögliche Ursache

Abhilfe

No workspace folder open.

Der Nutzer befindet sich in Antigravity im Modus No Folder (Kein Ordner).

Öffnen Sie einen Ordner über File > Open Folder (Datei > Ordner öffnen).

No active notebook editor found.

Sie führen Spark- oder SQL-Befehle ohne geöffnetes Notebook aus.

Öffnen Sie eine .ipynb- oder .sql-Datei.

Cannot insert item: unsupported resource type.

Es wird versucht, eine Ressource per Drag-and-drop zu verschieben, die eine NoSQL-Stringdarstellung hat.

In Editoren können nur Tabellen, Ansichten und Spalten eingefügt werden.

Datenbankfehler

Die folgenden Fehler werden zurückgegeben, wenn Sie Google Cloud Datenbanken abfragen.

AlloyDB

Fehlermeldung

Mögliche Ursache

Abhilfe

postgresql error: role "[USER_EMAIL]" does not exist

Der Nutzer, der sich in der Erweiterung angemeldet hat, wurde der Instanz nicht als IAM-Nutzer hinzugefügt.

Unter IAM-Authentifizierung verwalten erfahren Sie, wie Sie den Nutzer als IAM-Nutzer hinzufügen.

postgresql error: permission denied for table [TABLE_NAME]

Der IAM-Nutzer hat keine Berechtigung für das Objekt.

Unter Grant entsprechende Datenbankberechtigungen für IAM-Benutzer erteilen erfahren Sie, wie Sie dem IAM-Benutzer die Berechtigung für das Objekt erteilen.

Cloud SQL for MySQL

Fehlermeldung Mögliche Ursache Abhilfe
Invalid request: Some of your SQL statements failed to execute. Details: Error 1045 (28000): Access denied for user '[USER]'@'localhost' (using password: YES). Der Nutzer, der sich in der Erweiterung angemeldet hat, wurde der Instanz nicht als IAM-Nutzer hinzugefügt. Unter IAM Authentifizierung erfahren Sie, wie Sie den Nutzer als IAM-Nutzer für die Instanz hinzufügen.
Invalid request: Some of your SQL statements failed to execute. Details: Error 1044 (42000): Access denied for user '[USER]'@'%' to database '[DB_NAME]'. Der IAM-Nutzer hat keine Berechtigung für den Zugriff auf die Datenbank. Unter Grant Datenbankberechtigungen an einen einzelnen IAM-Nutzer oder ein Dienstkonto erfahren Sie, wie Sie IAM-Nutzern Berechtigungen für die Datenbank erteilen.
Invalid request: The instance doesn't allow using ExecuteSql to access this instance. You can allow it by patching the instance with {settings: { dataApiAccess: "ALLOW_DATA_API" }}. Der Data API-Zugriff ist nicht aktiviert. Aktivieren Sie den Data API-Zugriff in den Abfrageeinstellungen oder unter SQL-Anweisungen mit der Cloud SQL Data API ausführen, um ihn über die Google Cloud Console oder die gcloud CLI zu aktivieren.
Invalid request: IAM authentication is not enabled for the instance [PROJECT_ID]:[INSTANCE_NAME]. Das Flag für die IAM-Authentifizierung ist nicht aktiviert. Aktivieren Sie das Flag für die IAM-Authentifizierung in den Abfrage einstellungen oder unter IAM Authentifizierung, um es über die Google Cloud Console oder die gcloud CLI zu aktivieren.

Cloud SQL for PostgreSQL

Fehlermeldung Mögliche Ursache Abhilfe
Invalid request: The instance doesn't allow using ExecuteSql to access this instance. You can allow it by patching the instance with {settings: { dataApiAccess: "ALLOW_DATA_API" }}. Der Data API-Zugriff ist nicht aktiviert. Aktivieren Sie den Data API-Zugriff in den Abfrageeinstellungen oder unter SQL-Anweisungen mit der Cloud SQL Data API ausführen, um ihn über die Google Cloud Console oder die gcloud CLI zu aktivieren.
Invalid request: IAM authentication is not enabled for the instance [PROJECT_ID]:[INSTANCE_NAME]. Das Flag für die IAM-Authentifizierung ist nicht aktiviert. Aktivieren Sie das Flag für die IAM-Authentifizierung in den Abfrage einstellungen oder unter IAM Authentifizierung , um es über die Google Cloud Console oder die gcloud CLI zu aktivieren.
Invalid request: Some of your SQL statements failed to execute. Details: pq: password authentication failed for user "[USER_EMAIL]". Der Nutzer, der sich in der Erweiterung angemeldet hat, wurde der Instanz nicht als IAM-Nutzer hinzugefügt. Unter IAM-Authentifizierung erfahren Sie, wie Sie den Nutzer als IAM-Nutzer für die Instanz hinzufügen.
Execution failed. All statements are aborted. Details: pq: permission denied for table [TABLE_NAME] Der IAM-Nutzer hat keine Berechtigung für den Zugriff auf das Objekt. Unter Nutzer mit IAM-Datenbankauthentifizierung verwalten erfahren Sie, wie Sie IAM-Nutzern Berechtigungen für die Datenbank erteilen.

Spanner

Fehlermeldung

Mögliche Ursache

Abhilfe

Result set too large. Result sets larger than 10.00M can only be yielded through the streaming API.

Ergebnisse mit einer Größe von mehr als 10,00 MiB werden nicht unterstützt.

Siehe executeSql.

Nächste Schritte