Nach der Installation der Google Cloud Data Agent Kit-Erweiterung für Visual Studio Code sind die folgenden Befehle in der Visual Studio Code-Befehlspalette verfügbar. Mit diesen Befehlen können Sie direkt in der IDE mit IhrenGoogle Cloud -Ressourcen und -Daten arbeiten.
| Befehl | Beschreibung |
|---|---|
| google.datacloud.agent.skills.installGeminiCli | Agent Skills installieren (Gemini CLI) |
| google.datacloud.agent.skills.installGlobal | Agent Skills global installieren |
| google.datacloud.agent.skills.installWorkspace | Agent-Skills in Workspace installieren |
| google.datacloud.agent.skills.uninstallGlobal | Agent Skills global deinstallieren |
| google.datacloud.agent.skills.uninstallWorkspace | Agent-Skills aus Workspace deinstallieren |
| google.datacloud.agent.skills.view | Agent-Fähigkeiten ansehen |
| google.datacloud.auth.signIn | Anmelden |
| google.datacloud.auth.signOut | Abmelden |
| google.datacloud.auth.statusBar.open | Authentifizierungsstatus ansehen |
| google.datacloud.bigquery.dataform.compileProject | „BigQuery Dataform“ > „Projekt kompilieren“ |
| google.datacloud.bigquery.dataform.initProject | BigQuery Dataform > Neues Projekt initialisieren |
| google.datacloud.bigquery.dataform.run | „BigQuery Dataform“ > „Ausführen“ |
| google.datacloud.bigquery.dataform.runActions | BigQuery Dataform > Mehrere Aktionen ausführen |
| google.datacloud.bigquery.dataform.runTags | BigQuery Dataform > Run-Tags |
| google.datacloud.bigquery.dataform.showCompiledGraph | „BigQuery Dataform“ > „Graph View“ (Diagrammansicht) |
| google.datacloud.bigquery.notebook | „BigQuery“ > „Neues Notebook“ |
| google.datacloud.bigquery.notebook.new | „BigQuery“ > „Neues Notebook“ > „Neu“ |
| google.datacloud.bigquery.notebooks.createScheduledJob | „BigQuery Notebooks“ > „Geplanten Job erstellen“ |
| google.datacloud.bigquery.openTable | „BigQuery“ > „Tabellendetails öffnen“ |
| google.datacloud.bigquery.orchestrationPipeline.addTask | „BigQuery Orchestration Pipeline“ > „Aufgabe hinzufügen“ |
| google.datacloud.bigquery.orchestrationPipeline.deleteTask | „BigQuery Orchestration Pipeline“ > „Aufgabe löschen“ |
| google.datacloud.bigquery.orchestrationPipeline.deployConfiguration | „BigQuery Orchestration Pipeline“ > „Deployment configuration“ (BigQuery-Orchestration-Pipeline > Bereitstellungskonfiguration) |
| google.datacloud.bigquery.orchestrationPipeline.learnMore | Weitere Informationen zu Orchestration Pipelines |
| google.datacloud.bigquery.orchestrationPipeline.pipelineManagement | „BigQuery Orchestration Pipeline“ > „Pipeline Management“ |
| google.datacloud.bigquery.orchestrationPipeline.showDag | „BigQuery Orchestration Pipeline“ > „DAG anzeigen“ |
| google.datacloud.bigquery.refreshExplorer | BigQuery aktualisieren |
| google.datacloud.bigquery.startWithTemplate | „BigQuery“ > „Neues Notebook“ > „Mit Vorlage beginnen“ |
| google.datacloud.cloudStorage.refreshExplorer | Aktualisieren |
| google.datacloud.createBucketGcsFolder | Ordner erstellen |
| google.datacloud.createGcsBucket | Bucket erstellen |
| google.datacloud.createGcsFolder | Ordner erstellen |
| google.datacloud.dataagentinterface.installToolboxAsMcpServer | Toolbox auf allen unterstützten Plattformen installieren |
| google.datacloud.dataplex.copyResourceId | Ressourcen-ID kopieren |
| google.datacloud.dataplex.insertResourceAtCursor | In Editor einfügen |
| google.datacloud.dataplex.openCatalogDetails | Ressourcendetails öffnen |
| google.datacloud.dataplex.openTableInDataWrangler | „Katalog“ > „Tabellenbeispiel in Data Wrangler öffnen“ |
| google.datacloud.dataplex.queryResource | Abfrage |
| google.datacloud.dataplex.queryResourceWithBigQueryDataFramesNotebook | In BigQuery DataFrame laden |
| google.datacloud.dataplex.queryResourceWithPandasNotebook | In Pandas DataFrame laden |
| google.datacloud.dataplex.queryResourceWithSparkNotebook | In Spark-DataFrame laden |
| google.datacloud.dataplex.refreshUniversalCatalog | Aktualisieren |
| google.datacloud.dataplex.semanticSearch | Nach Dataset suchen |
| google.datacloud.dataplex.universalSearch | Universelle Suche |
| google.datacloud.dataplex.findInAlloyDb | In AlloyDB suchen |
| google.datacloud.dataplex.findInAlloyDbCluster | In AlloyDB-Clustern suchen |
| google.datacloud.dataplex.findInAlloyDbDatabase | In AlloyDB-Datenbank suchen |
| google.datacloud.dataplex.findInAlloyDbSchema | In AlloyDB-Schema suchen |
| google.datacloud.dataplex.findInBigLake | In Lakehouse suchen |
| google.datacloud.dataplex.findInBigLakeCatalog | Im Lakehouse-Katalog suchen |
| google.datacloud.dataplex.findInBigLakeNamespace | Im Lakehouse-Namespace suchen |
| google.datacloud.dataplex.findInBigQuery | In BigQuery suchen |
| google.datacloud.dataplex.findInBigQueryDataset | In Dataset suchen |
| google.datacloud.dataplex.findInCloudSql | In Cloud SQL suchen |
| google.datacloud.dataplex.findInCloudSqlDatabase | In Cloud SQL-Datenbank suchen |
| google.datacloud.dataplex.findInCloudSqlInstance | In Cloud SQL-Instanz suchen |
| google.datacloud.dataplex.findInCloudSqlSchema | Im Cloud SQL-Schema suchen |
| google.datacloud.dataplex.findInProject | Im Projekt suchen |
| google.datacloud.dataplex.findInSpanner | In Spanner suchen |
| google.datacloud.dataplex.findInSpannerDatabase | In der Datenbank suchen |
| google.datacloud.dataplex.findInSpannerInstance | In Instanz suchen |
| google.datacloud.dataproc.refreshSparkResourceTree | Spark-Ressourcenstruktur aktualisieren |
| google.datacloud.deleteGcsFile | Datei löschen |
| google.datacloud.deleteGcsFolder | Ordner löschen |
| google.datacloud.downloadGcsFile | Datei herunterladen |
| google.datacloud.gcloud.config.syncFromExtensionToGcloud | Konfiguration von Erweiterung mit Google Cloud CLI synchronisieren |
| google.datacloud.gcloud.config.syncFromGcloudToExtension | Konfiguration von Google Cloud CLI mit Erweiterung synchronisieren |
| google.datacloud.notebook.addBigQueryMagicSqlCell | BigQuery SQL-Zelle hinzufügen |
| google.datacloud.openGcsFile | Datei öffnen |
| google.datacloud.orchestrationPipeline.init | BigQuery Orchestration Pipeline > Initialize |
| google.datacloud.pinSettings | Einstellungen für Markierungen |
| google.datacloud.quickStartGuide | Kurzanleitung |
| google.datacloud.renameGcsFile | Datei umbenennen |
| google.datacloud.renameGcsFolder | Ordner umbenennen |
| google.datacloud.resetOnboarding | Onboarding zurücksetzen |
| google.datacloud.settings | Data Cloud-Einstellungen |
| google.datacloud.settings.projectStatusBar.open | Projektstatusleiste öffnen |
| google.datacloud.showOnboarding | Onboarding anzeigen |
| google.datacloud.spark.cluster.jobs | Jobs |
| google.datacloud.spark.cluster.profile | Profil |
| google.datacloud.spark.cluster.restart | Neu starten |
| google.datacloud.spark.cluster.sparkUi | Spark-UI |
| google.datacloud.spark.cluster.start | Starten |
| google.datacloud.spark.cluster.stop | Beenden |
| google.datacloud.spark.cluster.submitJob | Job senden |
| google.datacloud.spark.clusters.listClusters | „Managed Service for Apache Spark“ > „Cluster auflisten“ |
| google.datacloud.spark.clusters.listClusters.menu | Cluster auflisten |
| google.datacloud.spark.newNotebook | Neues Spark-Notebook |
| google.datacloud.spark.serverless.findRuntimes | „Serverless Spark“ > „Laufzeit suchen“ |
| google.datacloud.spark.serverless.interactiveSessions | Interaktive Sitzungen |
| google.datacloud.spark.serverless.listRuntimes | Serverless Spark > Laufzeiten auflisten |
| google.datacloud.spark.serverless.listRuntimes.menu | Serverless-Laufzeiten auflisten |
| google.datacloud.spark.serverless.profile | Profil |
| google.datacloud.sqleditor.cancelQuery | Abfrage abbrechen |
| google.datacloud.sqleditor.queryRunning | Abfrage wird ausgeführt |
| google.datacloud.sqleditor.runQuery | Abfrage ausführen |
| google.datacloud.unpinSettings | Einstellungen loslösen |
| google.datacloud.uploadBucketGcsFile | Datei hochladen |
| google.datacloud.uploadGcsFile | Datei hochladen |
| google.datacloud.view.bigquery | Zu BigQuery wechseln |
| google.datacloud.view.catalog | Zum Katalog wechseln |
| google.datacloud.view.gcs | Zu Cloud Storage wechseln |
| google.datacloud.view.pipelines | Zu Pipelines wechseln |
| google.datacloud.view.spark | Zu Spark wechseln |