Commandes d'extension

Après avoir installé l'extension Google Cloud Data Agent Kit pour Visual Studio Code, les commandes suivantes sont disponibles dans la palette de commandes Visual Studio Code. Ces commandes vous permettent de travailler avec vos ressources et donnéesGoogle Cloud directement dans l'IDE.

Commande Description
google.datacloud.agent.skills.installGeminiCli Installer les compétences agentiques (Gemini CLI)
google.datacloud.agent.skills.installGlobal Installer les compétences agentiques à l'échelle mondiale
google.datacloud.agent.skills.installWorkspace Installer les compétences d'agent dans Workspace
google.datacloud.agent.skills.uninstallGlobal Désinstaller les compétences agentiques à l'échelle mondiale
google.datacloud.agent.skills.uninstallWorkspace Désinstaller les compétences d'agent de Workspace
google.datacloud.agent.skills.view Afficher les compétences d'agent
google.datacloud.auth.signIn Se connecter
google.datacloud.auth.signOut Se déconnecter
google.datacloud.auth.statusBar.open Afficher l'état de l'authentification
google.datacloud.bigquery.dataform.compileProject BigQuery Dataform > Compiler le projet
google.datacloud.bigquery.dataform.initProject BigQuery Dataform > Initialiser un nouveau projet
google.datacloud.bigquery.dataform.run BigQuery Dataform > Exécuter
google.datacloud.bigquery.dataform.runActions BigQuery Dataform > Exécuter plusieurs actions
google.datacloud.bigquery.dataform.runTags BigQuery Dataform > Exécuter des tags
google.datacloud.bigquery.dataform.showCompiledGraph BigQuery Dataform > Ouvrir la vue Graphique
google.datacloud.bigquery.notebook BigQuery > Nouveau notebook
google.datacloud.bigquery.notebook.new BigQuery > Nouveau notebook > Nouveau
google.datacloud.bigquery.notebooks.createScheduledJob Notebooks BigQuery > Créer un job planifié
google.datacloud.bigquery.openTable BigQuery > Ouvrir les détails de la table
google.datacloud.bigquery.orchestrationPipeline.addTask BigQuery Pipelines > Ajouter une tâche
google.datacloud.bigquery.orchestrationPipeline.deleteTask Pipeline d'orchestration BigQuery > Supprimer la tâche
google.datacloud.bigquery.orchestrationPipeline.deployConfiguration Pipeline d'orchestration BigQuery > Configuration du déploiement
google.datacloud.bigquery.orchestrationPipeline.learnMore En savoir plus sur les pipelines d'orchestration
google.datacloud.bigquery.orchestrationPipeline.pipelineManagement Pipeline d'orchestration BigQuery > Gestion des pipelines
google.datacloud.bigquery.orchestrationPipeline.showDag Pipeline d'orchestration BigQuery > Afficher le DAG
google.datacloud.bigquery.refreshExplorer Actualiser BigQuery
google.datacloud.bigquery.startWithTemplate BigQuery > Nouveau notebook > Commencer avec un modèle
google.datacloud.cloudStorage.refreshExplorer Actualiser
google.datacloud.createBucketGcsFolder Créer un dossier
google.datacloud.createGcsBucket Créer un bucket
google.datacloud.createGcsFolder Créer un dossier
google.datacloud.dataagentinterface.installToolboxAsMcpServer Installer la boîte à outils sur toutes les surfaces compatibles
google.datacloud.dataplex.copyResourceId Copier l'ID de ressource
google.datacloud.dataplex.insertResourceAtCursor Insérer dans l'éditeur
google.datacloud.dataplex.openCatalogDetails Ouvrir les détails de la ressource
google.datacloud.dataplex.openTableInDataWrangler Catalogue > Ouvrir un exemple de tableau dans Data Wrangler
google.datacloud.dataplex.queryResource Requête
google.datacloud.dataplex.queryResourceWithBigQueryDataFramesNotebook Charger dans BigQuery DataFrame
google.datacloud.dataplex.queryResourceWithPandasNotebook Charger dans un DataFrame Pandas
google.datacloud.dataplex.queryResourceWithSparkNotebook Charger dans un DataFrame Spark
google.datacloud.dataplex.refreshUniversalCatalog Actualiser
google.datacloud.dataplex.semanticSearch Rechercher un ensemble de données
google.datacloud.dataplex.universalSearch Recherche universelle
google.datacloud.dataplex.findInAlloyDb Rechercher dans AlloyDB
google.datacloud.dataplex.findInAlloyDbCluster Rechercher dans un cluster AlloyDB
google.datacloud.dataplex.findInAlloyDbDatabase Rechercher dans une base de données AlloyDB
google.datacloud.dataplex.findInAlloyDbSchema Rechercher dans le schéma AlloyDB
google.datacloud.dataplex.findInBigLake Rechercher dans Lakehouse
google.datacloud.dataplex.findInBigLakeCatalog Rechercher dans le catalogue Lakehouse
google.datacloud.dataplex.findInBigLakeNamespace Rechercher dans l'espace de noms Lakehouse
google.datacloud.dataplex.findInBigQuery Effectuer une recherche dans BigQuery
google.datacloud.dataplex.findInBigQueryDataset Rechercher dans l'ensemble de données
google.datacloud.dataplex.findInCloudSql Rechercher dans Cloud SQL
google.datacloud.dataplex.findInCloudSqlDatabase Rechercher dans la base de données Cloud SQL
google.datacloud.dataplex.findInCloudSqlInstance Rechercher dans une instance Cloud SQL
google.datacloud.dataplex.findInCloudSqlSchema Rechercher dans le schéma Cloud SQL
google.datacloud.dataplex.findInProject Rechercher dans le projet
google.datacloud.dataplex.findInSpanner Rechercher dans Spanner
google.datacloud.dataplex.findInSpannerDatabase Rechercher dans la base de données
google.datacloud.dataplex.findInSpannerInstance Rechercher dans l'instance
google.datacloud.dataproc.refreshSparkResourceTree Actualiser l'arborescence des ressources Spark
google.datacloud.deleteGcsFile Supprimer le fichier
google.datacloud.deleteGcsFolder Supprimer le dossier
google.datacloud.downloadGcsFile Télécharger le fichier
google.datacloud.gcloud.config.syncFromExtensionToGcloud Synchroniser la configuration de l'extension avec Google Cloud CLI
google.datacloud.gcloud.config.syncFromGcloudToExtension Synchroniser la configuration de la Google Cloud CLI à l'extension
google.datacloud.notebook.addBigQueryMagicSqlCell Ajouter une cellule SQL BigQuery
google.datacloud.openGcsFile Ouvrir le fichier
google.datacloud.orchestrationPipeline.init BigQuery Orchestration Pipeline > Initialiser
google.datacloud.pinSettings Paramètres du code
google.datacloud.quickStartGuide Guide de démarrage rapide
google.datacloud.renameGcsFile Renommer un fichier
google.datacloud.renameGcsFolder Renommer le dossier
google.datacloud.resetOnboarding Réinitialiser l'intégration
google.datacloud.settings Paramètres du cloud de données
google.datacloud.settings.projectStatusBar.open Ouvrir la barre d'état du projet
google.datacloud.showOnboarding Afficher l'intégration
google.datacloud.spark.cluster.jobs Jobs
google.datacloud.spark.cluster.profile Profil
google.datacloud.spark.cluster.restart Redémarrer
google.datacloud.spark.cluster.sparkUi UI Spark
google.datacloud.spark.cluster.start Démarrer
google.datacloud.spark.cluster.stop Arrêter
google.datacloud.spark.cluster.submitJob Envoyer un job
google.datacloud.spark.clusters.listClusters Managed Service pour Apache Spark > Lister les clusters
google.datacloud.spark.clusters.listClusters.menu Répertorier les clusters
google.datacloud.spark.newNotebook Nouveau notebook Spark
google.datacloud.spark.serverless.findRuntimes Spark sans serveur > Rechercher un environnement d'exécution
google.datacloud.spark.serverless.interactiveSessions Sessions interactives
google.datacloud.spark.serverless.listRuntimes Spark sans serveur > Lister les environnements d'exécution
google.datacloud.spark.serverless.listRuntimes.menu Lister les environnements d'exécution serverless
google.datacloud.spark.serverless.profile Profil
google.datacloud.sqleditor.cancelQuery Cancel Query
google.datacloud.sqleditor.queryRunning La requête est en cours d'exécution
google.datacloud.sqleditor.runQuery Exécuter la requête
google.datacloud.unpinSettings Retirer les paramètres
google.datacloud.uploadBucketGcsFile Importer un fichier
google.datacloud.uploadGcsFile Importer un fichier
google.datacloud.view.bigquery Passer à BigQuery
google.datacloud.view.catalog Passer à Catalog
google.datacloud.view.gcs Passer à Cloud Storage
google.datacloud.view.pipelines Passer à Pipelines
google.datacloud.view.spark Passer à Spark

Étapes suivantes