Erweiterungsbefehle

Nach der Installation der Google Cloud Data Agent Kit-Erweiterung für Visual Studio Code sind die folgenden Befehle in der Visual Studio Code-Befehlspalette verfügbar. Mit diesen Befehlen können Sie direkt in der IDE mit IhrenGoogle Cloud -Ressourcen und -Daten arbeiten.

Befehl Beschreibung
google.datacloud.agent.skills.installGeminiCli Agent Skills installieren (Gemini CLI)
google.datacloud.agent.skills.installGlobal Agent Skills global installieren
google.datacloud.agent.skills.installWorkspace Agent-Skills in Workspace installieren
google.datacloud.agent.skills.uninstallGlobal Agent Skills global deinstallieren
google.datacloud.agent.skills.uninstallWorkspace Agent-Skills aus Workspace deinstallieren
google.datacloud.agent.skills.view Agent-Fähigkeiten ansehen
google.datacloud.auth.signIn Anmelden
google.datacloud.auth.signOut Abmelden
google.datacloud.auth.statusBar.open Authentifizierungsstatus ansehen
google.datacloud.bigquery.dataform.compileProject „BigQuery Dataform“ > „Projekt kompilieren“
google.datacloud.bigquery.dataform.initProject BigQuery Dataform > Neues Projekt initialisieren
google.datacloud.bigquery.dataform.run „BigQuery Dataform“ > „Ausführen“
google.datacloud.bigquery.dataform.runActions BigQuery Dataform > Mehrere Aktionen ausführen
google.datacloud.bigquery.dataform.runTags BigQuery Dataform > Run-Tags
google.datacloud.bigquery.dataform.showCompiledGraph „BigQuery Dataform“ > „Graph View“ (Diagrammansicht)
google.datacloud.bigquery.notebook „BigQuery“ > „Neues Notebook“
google.datacloud.bigquery.notebook.new „BigQuery“ > „Neues Notebook“ > „Neu“
google.datacloud.bigquery.notebooks.createScheduledJob „BigQuery Notebooks“ > „Geplanten Job erstellen“
google.datacloud.bigquery.openTable „BigQuery“ > „Tabellendetails öffnen“
google.datacloud.bigquery.orchestrationPipeline.addTask „BigQuery Orchestration Pipeline“ > „Aufgabe hinzufügen“
google.datacloud.bigquery.orchestrationPipeline.deleteTask „BigQuery Orchestration Pipeline“ > „Aufgabe löschen“
google.datacloud.bigquery.orchestrationPipeline.deployConfiguration „BigQuery Orchestration Pipeline“ > „Deployment configuration“ (BigQuery-Orchestration-Pipeline > Bereitstellungskonfiguration)
google.datacloud.bigquery.orchestrationPipeline.learnMore Weitere Informationen zu Orchestration Pipelines
google.datacloud.bigquery.orchestrationPipeline.pipelineManagement „BigQuery Orchestration Pipeline“ > „Pipeline Management“
google.datacloud.bigquery.orchestrationPipeline.showDag „BigQuery Orchestration Pipeline“ > „DAG anzeigen“
google.datacloud.bigquery.refreshExplorer BigQuery aktualisieren
google.datacloud.bigquery.startWithTemplate „BigQuery“ > „Neues Notebook“ > „Mit Vorlage beginnen“
google.datacloud.cloudStorage.refreshExplorer Aktualisieren
google.datacloud.createBucketGcsFolder Ordner erstellen
google.datacloud.createGcsBucket Bucket erstellen
google.datacloud.createGcsFolder Ordner erstellen
google.datacloud.dataagentinterface.installToolboxAsMcpServer Toolbox auf allen unterstützten Plattformen installieren
google.datacloud.dataplex.copyResourceId Ressourcen-ID kopieren
google.datacloud.dataplex.insertResourceAtCursor In Editor einfügen
google.datacloud.dataplex.openCatalogDetails Ressourcendetails öffnen
google.datacloud.dataplex.openTableInDataWrangler „Katalog“ > „Tabellenbeispiel in Data Wrangler öffnen“
google.datacloud.dataplex.queryResource Abfrage
google.datacloud.dataplex.queryResourceWithBigQueryDataFramesNotebook In BigQuery DataFrame laden
google.datacloud.dataplex.queryResourceWithPandasNotebook In Pandas DataFrame laden
google.datacloud.dataplex.queryResourceWithSparkNotebook In Spark-DataFrame laden
google.datacloud.dataplex.refreshUniversalCatalog Aktualisieren
google.datacloud.dataplex.semanticSearch Nach Dataset suchen
google.datacloud.dataplex.universalSearch Universelle Suche
google.datacloud.dataplex.findInAlloyDb In AlloyDB suchen
google.datacloud.dataplex.findInAlloyDbCluster In AlloyDB-Clustern suchen
google.datacloud.dataplex.findInAlloyDbDatabase In AlloyDB-Datenbank suchen
google.datacloud.dataplex.findInAlloyDbSchema In AlloyDB-Schema suchen
google.datacloud.dataplex.findInBigLake In Lakehouse suchen
google.datacloud.dataplex.findInBigLakeCatalog Im Lakehouse-Katalog suchen
google.datacloud.dataplex.findInBigLakeNamespace Im Lakehouse-Namespace suchen
google.datacloud.dataplex.findInBigQuery In BigQuery suchen
google.datacloud.dataplex.findInBigQueryDataset In Dataset suchen
google.datacloud.dataplex.findInCloudSql In Cloud SQL suchen
google.datacloud.dataplex.findInCloudSqlDatabase In Cloud SQL-Datenbank suchen
google.datacloud.dataplex.findInCloudSqlInstance In Cloud SQL-Instanz suchen
google.datacloud.dataplex.findInCloudSqlSchema Im Cloud SQL-Schema suchen
google.datacloud.dataplex.findInProject Im Projekt suchen
google.datacloud.dataplex.findInSpanner In Spanner suchen
google.datacloud.dataplex.findInSpannerDatabase In der Datenbank suchen
google.datacloud.dataplex.findInSpannerInstance In Instanz suchen
google.datacloud.dataproc.refreshSparkResourceTree Spark-Ressourcenstruktur aktualisieren
google.datacloud.deleteGcsFile Datei löschen
google.datacloud.deleteGcsFolder Ordner löschen
google.datacloud.downloadGcsFile Datei herunterladen
google.datacloud.gcloud.config.syncFromExtensionToGcloud Konfiguration von Erweiterung mit Google Cloud CLI synchronisieren
google.datacloud.gcloud.config.syncFromGcloudToExtension Konfiguration von Google Cloud CLI mit Erweiterung synchronisieren
google.datacloud.notebook.addBigQueryMagicSqlCell BigQuery SQL-Zelle hinzufügen
google.datacloud.openGcsFile Datei öffnen
google.datacloud.orchestrationPipeline.init BigQuery Orchestration Pipeline > Initialize
google.datacloud.pinSettings Einstellungen für Markierungen
google.datacloud.quickStartGuide Kurzanleitung
google.datacloud.renameGcsFile Datei umbenennen
google.datacloud.renameGcsFolder Ordner umbenennen
google.datacloud.resetOnboarding Onboarding zurücksetzen
google.datacloud.settings Data Cloud-Einstellungen
google.datacloud.settings.projectStatusBar.open Projektstatusleiste öffnen
google.datacloud.showOnboarding Onboarding anzeigen
google.datacloud.spark.cluster.jobs Jobs
google.datacloud.spark.cluster.profile Profil
google.datacloud.spark.cluster.restart Neu starten
google.datacloud.spark.cluster.sparkUi Spark-UI
google.datacloud.spark.cluster.start Starten
google.datacloud.spark.cluster.stop Beenden
google.datacloud.spark.cluster.submitJob Job senden
google.datacloud.spark.clusters.listClusters „Managed Service for Apache Spark“ > „Cluster auflisten“
google.datacloud.spark.clusters.listClusters.menu Cluster auflisten
google.datacloud.spark.newNotebook Neues Spark-Notebook
google.datacloud.spark.serverless.findRuntimes „Serverless Spark“ > „Laufzeit suchen“
google.datacloud.spark.serverless.interactiveSessions Interaktive Sitzungen
google.datacloud.spark.serverless.listRuntimes Serverless Spark > Laufzeiten auflisten
google.datacloud.spark.serverless.listRuntimes.menu Serverless-Laufzeiten auflisten
google.datacloud.spark.serverless.profile Profil
google.datacloud.sqleditor.cancelQuery Abfrage abbrechen
google.datacloud.sqleditor.queryRunning Abfrage wird ausgeführt
google.datacloud.sqleditor.runQuery Abfrage ausführen
google.datacloud.unpinSettings Einstellungen loslösen
google.datacloud.uploadBucketGcsFile Datei hochladen
google.datacloud.uploadGcsFile Datei hochladen
google.datacloud.view.bigquery Zu BigQuery wechseln
google.datacloud.view.catalog Zum Katalog wechseln
google.datacloud.view.gcs Zu Cloud Storage wechseln
google.datacloud.view.pipelines Zu Pipelines wechseln
google.datacloud.view.spark Zu Spark wechseln

Nächste Schritte