Après avoir installé l'extension Google Cloud Data Agent Kit pour Visual Studio Code, les commandes suivantes sont disponibles dans la palette de commandes Visual Studio Code. Ces commandes vous permettent de travailler avec vos ressources et donnéesGoogle Cloud directement dans l'IDE.
| Commande | Description |
|---|---|
| google.datacloud.agent.skills.installGeminiCli | Installer les compétences agentiques (Gemini CLI) |
| google.datacloud.agent.skills.installGlobal | Installer les compétences agentiques à l'échelle mondiale |
| google.datacloud.agent.skills.installWorkspace | Installer les compétences d'agent dans Workspace |
| google.datacloud.agent.skills.uninstallGlobal | Désinstaller les compétences agentiques à l'échelle mondiale |
| google.datacloud.agent.skills.uninstallWorkspace | Désinstaller les compétences d'agent de Workspace |
| google.datacloud.agent.skills.view | Afficher les compétences d'agent |
| google.datacloud.auth.signIn | Se connecter |
| google.datacloud.auth.signOut | Se déconnecter |
| google.datacloud.auth.statusBar.open | Afficher l'état de l'authentification |
| google.datacloud.bigquery.dataform.compileProject | BigQuery Dataform > Compiler le projet |
| google.datacloud.bigquery.dataform.initProject | BigQuery Dataform > Initialiser un nouveau projet |
| google.datacloud.bigquery.dataform.run | BigQuery Dataform > Exécuter |
| google.datacloud.bigquery.dataform.runActions | BigQuery Dataform > Exécuter plusieurs actions |
| google.datacloud.bigquery.dataform.runTags | BigQuery Dataform > Exécuter des tags |
| google.datacloud.bigquery.dataform.showCompiledGraph | BigQuery Dataform > Ouvrir la vue Graphique |
| google.datacloud.bigquery.notebook | BigQuery > Nouveau notebook |
| google.datacloud.bigquery.notebook.new | BigQuery > Nouveau notebook > Nouveau |
| google.datacloud.bigquery.notebooks.createScheduledJob | Notebooks BigQuery > Créer un job planifié |
| google.datacloud.bigquery.openTable | BigQuery > Ouvrir les détails de la table |
| google.datacloud.bigquery.orchestrationPipeline.addTask | BigQuery Pipelines > Ajouter une tâche |
| google.datacloud.bigquery.orchestrationPipeline.deleteTask | Pipeline d'orchestration BigQuery > Supprimer la tâche |
| google.datacloud.bigquery.orchestrationPipeline.deployConfiguration | Pipeline d'orchestration BigQuery > Configuration du déploiement |
| google.datacloud.bigquery.orchestrationPipeline.learnMore | En savoir plus sur les pipelines d'orchestration |
| google.datacloud.bigquery.orchestrationPipeline.pipelineManagement | Pipeline d'orchestration BigQuery > Gestion des pipelines |
| google.datacloud.bigquery.orchestrationPipeline.showDag | Pipeline d'orchestration BigQuery > Afficher le DAG |
| google.datacloud.bigquery.refreshExplorer | Actualiser BigQuery |
| google.datacloud.bigquery.startWithTemplate | BigQuery > Nouveau notebook > Commencer avec un modèle |
| google.datacloud.cloudStorage.refreshExplorer | Actualiser |
| google.datacloud.createBucketGcsFolder | Créer un dossier |
| google.datacloud.createGcsBucket | Créer un bucket |
| google.datacloud.createGcsFolder | Créer un dossier |
| google.datacloud.dataagentinterface.installToolboxAsMcpServer | Installer la boîte à outils sur toutes les surfaces compatibles |
| google.datacloud.dataplex.copyResourceId | Copier l'ID de ressource |
| google.datacloud.dataplex.insertResourceAtCursor | Insérer dans l'éditeur |
| google.datacloud.dataplex.openCatalogDetails | Ouvrir les détails de la ressource |
| google.datacloud.dataplex.openTableInDataWrangler | Catalogue > Ouvrir un exemple de tableau dans Data Wrangler |
| google.datacloud.dataplex.queryResource | Requête |
| google.datacloud.dataplex.queryResourceWithBigQueryDataFramesNotebook | Charger dans BigQuery DataFrame |
| google.datacloud.dataplex.queryResourceWithPandasNotebook | Charger dans un DataFrame Pandas |
| google.datacloud.dataplex.queryResourceWithSparkNotebook | Charger dans un DataFrame Spark |
| google.datacloud.dataplex.refreshUniversalCatalog | Actualiser |
| google.datacloud.dataplex.semanticSearch | Rechercher un ensemble de données |
| google.datacloud.dataplex.universalSearch | Recherche universelle |
| google.datacloud.dataplex.findInAlloyDb | Rechercher dans AlloyDB |
| google.datacloud.dataplex.findInAlloyDbCluster | Rechercher dans un cluster AlloyDB |
| google.datacloud.dataplex.findInAlloyDbDatabase | Rechercher dans une base de données AlloyDB |
| google.datacloud.dataplex.findInAlloyDbSchema | Rechercher dans le schéma AlloyDB |
| google.datacloud.dataplex.findInBigLake | Rechercher dans Lakehouse |
| google.datacloud.dataplex.findInBigLakeCatalog | Rechercher dans le catalogue Lakehouse |
| google.datacloud.dataplex.findInBigLakeNamespace | Rechercher dans l'espace de noms Lakehouse |
| google.datacloud.dataplex.findInBigQuery | Effectuer une recherche dans BigQuery |
| google.datacloud.dataplex.findInBigQueryDataset | Rechercher dans l'ensemble de données |
| google.datacloud.dataplex.findInCloudSql | Rechercher dans Cloud SQL |
| google.datacloud.dataplex.findInCloudSqlDatabase | Rechercher dans la base de données Cloud SQL |
| google.datacloud.dataplex.findInCloudSqlInstance | Rechercher dans une instance Cloud SQL |
| google.datacloud.dataplex.findInCloudSqlSchema | Rechercher dans le schéma Cloud SQL |
| google.datacloud.dataplex.findInProject | Rechercher dans le projet |
| google.datacloud.dataplex.findInSpanner | Rechercher dans Spanner |
| google.datacloud.dataplex.findInSpannerDatabase | Rechercher dans la base de données |
| google.datacloud.dataplex.findInSpannerInstance | Rechercher dans l'instance |
| google.datacloud.dataproc.refreshSparkResourceTree | Actualiser l'arborescence des ressources Spark |
| google.datacloud.deleteGcsFile | Supprimer le fichier |
| google.datacloud.deleteGcsFolder | Supprimer le dossier |
| google.datacloud.downloadGcsFile | Télécharger le fichier |
| google.datacloud.gcloud.config.syncFromExtensionToGcloud | Synchroniser la configuration de l'extension avec Google Cloud CLI |
| google.datacloud.gcloud.config.syncFromGcloudToExtension | Synchroniser la configuration de la Google Cloud CLI à l'extension |
| google.datacloud.notebook.addBigQueryMagicSqlCell | Ajouter une cellule SQL BigQuery |
| google.datacloud.openGcsFile | Ouvrir le fichier |
| google.datacloud.orchestrationPipeline.init | BigQuery Orchestration Pipeline > Initialiser |
| google.datacloud.pinSettings | Paramètres du code |
| google.datacloud.quickStartGuide | Guide de démarrage rapide |
| google.datacloud.renameGcsFile | Renommer un fichier |
| google.datacloud.renameGcsFolder | Renommer le dossier |
| google.datacloud.resetOnboarding | Réinitialiser l'intégration |
| google.datacloud.settings | Paramètres du cloud de données |
| google.datacloud.settings.projectStatusBar.open | Ouvrir la barre d'état du projet |
| google.datacloud.showOnboarding | Afficher l'intégration |
| google.datacloud.spark.cluster.jobs | Jobs |
| google.datacloud.spark.cluster.profile | Profil |
| google.datacloud.spark.cluster.restart | Redémarrer |
| google.datacloud.spark.cluster.sparkUi | UI Spark |
| google.datacloud.spark.cluster.start | Démarrer |
| google.datacloud.spark.cluster.stop | Arrêter |
| google.datacloud.spark.cluster.submitJob | Envoyer un job |
| google.datacloud.spark.clusters.listClusters | Managed Service pour Apache Spark > Lister les clusters |
| google.datacloud.spark.clusters.listClusters.menu | Répertorier les clusters |
| google.datacloud.spark.newNotebook | Nouveau notebook Spark |
| google.datacloud.spark.serverless.findRuntimes | Spark sans serveur > Rechercher un environnement d'exécution |
| google.datacloud.spark.serverless.interactiveSessions | Sessions interactives |
| google.datacloud.spark.serverless.listRuntimes | Spark sans serveur > Lister les environnements d'exécution |
| google.datacloud.spark.serverless.listRuntimes.menu | Lister les environnements d'exécution serverless |
| google.datacloud.spark.serverless.profile | Profil |
| google.datacloud.sqleditor.cancelQuery | Cancel Query |
| google.datacloud.sqleditor.queryRunning | La requête est en cours d'exécution |
| google.datacloud.sqleditor.runQuery | Exécuter la requête |
| google.datacloud.unpinSettings | Retirer les paramètres |
| google.datacloud.uploadBucketGcsFile | Importer un fichier |
| google.datacloud.uploadGcsFile | Importer un fichier |
| google.datacloud.view.bigquery | Passer à BigQuery |
| google.datacloud.view.catalog | Passer à Catalog |
| google.datacloud.view.gcs | Passer à Cloud Storage |
| google.datacloud.view.pipelines | Passer à Pipelines |
| google.datacloud.view.spark | Passer à Spark |