Depois de instalar a extensão do Google Cloud Data Agent Kit para Visual Studio Code, os seguintes comandos ficam disponíveis na paleta de comandos do Visual Studio Code. Esses comandos permitem trabalhar com seus recursos e dados doGoogle Cloud diretamente no IDE.
| Comando | Descrição |
|---|---|
| google.datacloud.agent.skills.installGeminiCli | Instalar o Agent Skills (CLI do Gemini) |
| google.datacloud.agent.skills.installGlobal | Instalar habilidades do agente globalmente |
| google.datacloud.agent.skills.installWorkspace | Instalar habilidades do agente no Workspace |
| google.datacloud.agent.skills.uninstallGlobal | Desinstalar habilidades do agente globalmente |
| google.datacloud.agent.skills.uninstallWorkspace | Desinstalar as habilidades de agente do Workspace |
| google.datacloud.agent.skills.view | Ver habilidades do agente |
| google.datacloud.bigquery.dataform.compileProject | BigQuery Dataform > Compilar o projeto |
| google.datacloud.bigquery.dataform.initProject | BigQuery Dataform > Inicializar um novo projeto |
| google.datacloud.bigquery.dataform.run | BigQuery Dataform > Executar |
| google.datacloud.bigquery.dataform.runActions | BigQuery Dataform > Executar várias ações |
| google.datacloud.bigquery.dataform.runTags | BigQuery Dataform > Executar tags |
| google.datacloud.bigquery.dataform.showCompiledGraph | BigQuery Dataform > Abrir visualização de gráfico |
| google.datacloud.bigquery.notebook | BigQuery > Novo notebook |
| google.datacloud.bigquery.notebook.new | BigQuery > Novo notebook > Novo |
| google.datacloud.bigquery.notebooks.createScheduledJob | Notebooks do BigQuery > Criar job programado |
| google.datacloud.bigquery.openTable | BigQuery > Abrir detalhes da tabela |
| google.datacloud.bigquery.orchestrationPipeline.addTask | Adicionar tarefa |
| google.datacloud.bigquery.orchestrationPipeline.deleteTask | Excluir tarefa |
| google.datacloud.bigquery.orchestrationPipeline.deployConfiguration | Implantar configuração |
| google.datacloud.bigquery.orchestrationPipeline.learnMore | Saiba mais sobre Orquestração de Pipelines |
| google.datacloud.bigquery.orchestrationPipeline.pipelineManagement | Gerenciamento de tubulações |
| google.datacloud.bigquery.orchestrationPipeline.showDag | Pipeline de orquestração do BigQuery > Mostrar DAG |
| google.datacloud.bigquery.refreshExplorer | Atualizar |
| google.datacloud.bigquery.startWithTemplate | BigQuery > Novo notebook > Começar com um modelo |
| google.datacloud.cloudStorage.refreshExplorer | Atualizar |
| google.datacloud.createBucketGcsFolder | Criar pasta |
| google.datacloud.createGcsBucket | Criar bucket |
| google.datacloud.createGcsFolder | Criar pasta |
| google.datacloud.dataagentinterface.installToolboxAsMcpServer | Instale a caixa de ferramentas em todas as plataformas compatíveis |
| google.datacloud.dataplex.copyResourceId | Copiar código do recurso |
| google.datacloud.dataplex.insertResourceAtCursor | Inserir no editor |
| google.datacloud.dataplex.openCatalogDetails | Abrir detalhes do recurso |
| google.datacloud.dataplex.openTableInDataWrangler | Knowledge Catalog > Abrir amostra de tabela no Data Wrangler |
| google.datacloud.dataplex.queryResource | Consulta |
| google.datacloud.dataplex.queryResourceWithBigQueryDataFramesNotebook | Carregar no DataFrame do BigQuery |
| google.datacloud.dataplex.queryResourceWithPandasNotebook | Carregar no DataFrame do Pandas |
| google.datacloud.dataplex.queryResourceWithSparkNotebook | Carregar no DataFrame do Spark |
| google.datacloud.dataplex.refreshUniversalCatalog | Atualizar |
| google.datacloud.dataplex.semanticSearch | Pesquisar conjunto de dados |
| google.datacloud.dataplex.universalSearch | Pesquisa universal |
| google.datacloud.dataplexFindInBigLake | Encontrar no lakehouse |
| google.datacloud.dataplexFindInBigLakeCatalog | Encontrar no catálogo do Lakehouse |
| google.datacloud.dataplexFindInBigLakeNamespace | Encontrar no namespace do lakehouse |
| google.datacloud.dataplexFindInBigQuery | Pesquisar no BigQuery |
| google.datacloud.dataplexFindInBigQueryDataset | Pesquisar no conjunto de dados |
| google.datacloud.dataplexFindInProject | Pesquisar no projeto |
| google.datacloud.dataplexFindInSpanner | Pesquisar no Cloud Spanner |
| google.datacloud.dataplexFindInSpannerDatabase | Pesquisar no banco de dados |
| google.datacloud.dataplexFindInSpannerInstance | Pesquisar na instância |
| google.datacloud.dataproc.refreshSparkResourceTree | Atualizar |
| google.datacloud.deleteGcsFile | Excluir |
| google.datacloud.deleteGcsFolder | Excluir pasta |
| google.datacloud.downloadGcsFile | Fazer o download |
| google.datacloud.notebook.addBigQueryMagicSqlCell | Adicionar célula SQL do BigQuery |
| google.datacloud.openAuthStatusBar | Ver status de autenticação |
| google.datacloud.openGcsFile | Abrir arquivo do Cloud Storage |
| google.datacloud.openProjectStatusBar | Abrir barra de status do projeto |
| google.datacloud.orchestrationPipeline.init | Inicializar o pipeline de orquestração |
| google.datacloud.pinSettings | Configurações de fixação |
| google.datacloud.quickStartGuide | Guia de início rápido |
| google.datacloud.refreshExplorer | Atualizar o Data Cloud Explorer |
| google.datacloud.renameGcsFile | Renomear |
| google.datacloud.renameGcsFolder | Renomear pasta |
| google.datacloud.resetOnboarding | Redefinir integração |
| google.datacloud.settings | Configurações da Data Cloud |
| google.datacloud.showOnboarding | Mostrar integração |
| google.datacloud.signIn | google.datacloud > Fazer login |
| google.datacloud.signOut | google.datacloud > Sair |
| google.datacloud.spark.cluster.jobs | Jobs |
| google.datacloud.spark.cluster.profile | Perfil |
| google.datacloud.spark.cluster.restart | Reiniciar |
| google.datacloud.spark.cluster.sparkUi | Interface do Spark |
| google.datacloud.spark.cluster.start | Iniciar |
| google.datacloud.spark.cluster.stop | Parar |
| google.datacloud.spark.cluster.submitJob | Enviar job |
| google.datacloud.spark.clusters.listClusters | Serviço Gerenciado para Apache Spark > Listar clusters |
| google.datacloud.spark.clusters.listClusters.menu | Listar clusters |
| google.datacloud.spark.newNotebook | Novo notebook do Spark |
| google.datacloud.spark.serverless.findRuntimes | Spark sem servidor > Encontrar ambiente de execução |
| google.datacloud.spark.serverless.interactiveSessions | Sessões interativas |
| google.datacloud.spark.serverless.listRuntimes | Spark sem servidor > Listar ambientes de execução |
| google.datacloud.spark.serverless.listRuntimes.menu | Listar ambientes de execução sem servidor |
| google.datacloud.spark.serverless.profile | Perfil |
| google.datacloud.sqleditor.cancelQuery | Cancelar consulta |
| google.datacloud.sqleditor.queryRunning | A consulta está em execução |
| google.datacloud.sqleditor.runQuery | Executar consulta |
| google.datacloud.sqleditor.updateQuerySettings | Atualizar configurações de consulta |
| google.datacloud.syncExtensionConfig | Sincronizar a configuração da extensão com a Google Cloud CLI |
| google.datacloud.syncGcloudConfig | Sincronizar a configuração da gcloud |
| google.datacloud.unpinSettings | Liberar configurações |
| google.datacloud.uploadBucketGcsFile | Fazer upload do arquivo |
| google.datacloud.uploadGcsFile | Fazer upload do arquivo |
| google.datacloud.view.bigquery | Mudar para o BigQuery |
| google.datacloud.view.catalog | Trocar para o Knowledge Catalog |
| google.datacloud.view.gcs | Mudar para o Cloud Storage |
| google.datacloud.view.pipelines | Mudar para "Pipelines" |
| google.datacloud.view.settings | Mudar para as configurações |
| google.datacloud.view.spark | Mudar para o Spark |