O Vertex AI é uma plataforma unificada e aberta para criar, implementar e escalar modelos de IA generativa e aprendizagem automática (ML), bem como aplicações de IA. Dá acesso ao Model Garden, que apresenta um catálogo organizado de mais de 200 modelos, incluindo os modelos de base da Google (como o Gemini) e uma seleção abrangente de modelos abertos e de parceiros, juntamente com a infraestrutura de TPU/GPU subjacente. A Vertex AI suporta fluxos de trabalho de IA gen de vanguarda, bem como fluxos de trabalho de inferência de IA para MLOps. Oferece ferramentas de MLOps ponto a ponto e controlos de nível empresarial para governação, segurança e conformidade.
Principais capacidades do Vertex AI
O Vertex AI inclui ferramentas e serviços que suportam a IA generativa, bem como a inferência de IA e os fluxos de trabalho de aprendizagem automática.
Capacidades de IA generativa
O Vertex AI reúne um conjunto de ferramentas abrangente com as ferramentas de modelos de base avançados da Google que pode usar para criar agentes e aplicações de IA generativa prontos para produção, da seguinte forma:
Comandos: comece com a conceção de comandos no Vertex AI Studio. O Vertex AI Studio inclui ferramentas para a conceção de comandos e a gestão de modelos que pode usar para criar protótipos, criar e implementar aplicações de IA generativa.
Modelos: o Model Garden da Vertex AI é um hub centralizado que contém mais de 200 modelos prontos para empresas da Google, de parceiros externos líderes (como o Claude da Anthropic) e opções populares de código aberto (como o Llama).
Esta seleção de modelos inclui o seguinte:
Modelos de IA generativa fundamentais da Google:
- Gemini: capacidades multimodais para texto, imagens, vídeo e áudio; e capacidades de raciocínio para modelos, como o Gemini 3 Flash e o Gemini 3 Pro (com o Nano Banana).
- Imagen no Vertex AI: gere e edite imagens.
- Veo na Vertex AI: gere vídeos a partir de texto e imagens.
Modelos de código aberto e de parceiros: aceda a uma seleção organizada de modelos líderes, como o Claude da Anthropic, os modelos de IA da Mistral e o Llama, com um desempenho/preço superior. Estes modelos estão disponíveis como APIs de modelo como serviço (MaaS) totalmente geridas.
Personalização de modelos: personalize os modelos para a sua empresa de modo a criar recursos de IA únicos. Isto varia desde a fundamentação com os seus dados empresariais ou a Pesquisa Google para reduzir as alucinações, até à utilização da Vertex AI Training para o ajuste fino supervisionado (SFT) ou o ajuste fino eficiente em termos de parâmetros (PEFT) de modelos como o Gemini. Para mais informações sobre a personalização de modelos, consulte o artigo Introdução ao ajuste.
Avaliações de IA generativa: avalie e compare objetivamente o desempenho do modelo e do agente com as capacidades de avaliação da IA gen do Vertex AI. Garanta a segurança e a conformidade implementando funcionalidades de defesa em tempo de execução, como o Model Armor, para inspecionar proativamente e proteger contra ameaças emergentes, como injeção de comandos e exfiltração de dados.
Criadores de agentes: o Vertex AI Agent Builder é um sistema de transformação agente de pilha completa que ajuda a criar, gerir e implementar agentes de IA. Use o Agent Development Kit (ADK) de código aberto para criar e orquestrar agentes e, em seguida, implementá-los no Vertex AI Agent Engine gerido e sem servidor para utilização em grande escala na produção. A cada agente é atribuída uma identidade do agente (principal de gestão de identidade e de acesso) para segurança e uma trilha de auditoria clara.
Aceder a informações externas: melhore as respostas do modelo estabelecendo ligação a fontes fiáveis com a fundamentação, interagindo com APIs externas através da chamada de funções e acedendo a informações de bases de conhecimentos com a RAG.
IA responsável e segurança: use funcionalidades de segurança integradas para bloquear conteúdo prejudicial e garantir uma utilização responsável da IA.
Para mais informações sobre a IA generativa no Vertex AI, consulte a documentação da IA generativa no Vertex AI.
Capacidades de inferência de IA
O Vertex AI fornece ferramentas e serviços que são mapeados para cada fase do fluxo de trabalho de ML:
Preparação de dados: recolha, limpe e transforme os seus dados.
- Use os blocos de notas do Vertex AI Workbench para realizar uma análise exploratória de dados (EDA).
- Integre com o Cloud Storage e o BigQuery para aceder aos dados.
- Use o Dataproc Serverless Spark para o tratamento de dados em grande escala.
Preparação de modelos: prepare o seu modelo de ML.
- Escolha entre o AutoML para uma preparação sem código ou a preparação personalizada para um controlo total.
- Faça a gestão e a comparação das execuções de preparação com as experiências do Vertex AI.
- Registe modelos preparados no Registo de modelos Vertex AI.
- O Vertex AI Training
oferece preparação sem servidor e clusters de preparação.
- Use a preparação sem servidor do Vertex AI para executar o seu código de preparação personalizado a pedido num ambiente totalmente gerido. Consulte a [vista geral da preparação sem servidor do Vertex AI][serverless].
- Use clusters de preparação do Vertex AI para tarefas grandes que precisam de capacidade garantida em clusters de aceleradores dedicados e reservados. Consulte a vista geral dos clusters de preparação do Vertex AI.
- Use o Ray na Vertex AI para dimensionar cargas de trabalho de Python e de aprendizagem automática com a framework Ray de código aberto num cluster gerido e interativo. Consulte a vista geral do Ray no Vertex AI.
- Use o Vertex AI Vizier para ajustar os hiperparâmetros do modelo em modelos de ML complexos.
Avaliação e iteração do modelo: avalie e melhore o desempenho do modelo.
- Use as métricas de avaliação de modelos para comparar modelos.
- Integre avaliações nos fluxos de trabalho do Vertex AI Pipelines.
Publicação de modelos: implemente e obtenha inferências do seu modelo.
- Implemente inferências online com contentores pré-criados ou personalizados.
- Realize inferências em lote para grandes conjuntos de dados.
- Use o tempo de execução do TensorFlow otimizado para uma publicação do TensorFlow eficiente.
- Compreenda as inferências de modelos com o Vertex Explainable AI.
- Apresente funcionalidades do Vertex AI Feature Store.
- Implemente modelos preparados com o BigQuery ML.
Monitorização de modelos: acompanhe o desempenho do modelo implementado ao longo do tempo.
- Use o Vertex AI Model Monitoring para detetar a discrepância entre a preparação e a apresentação, bem como a variação da inferência.
Ferramentas de MLOps
Automatize, faça a gestão e monitorize os seus projetos de ML:
- Vertex AI Pipelines: organize e automatize fluxos de trabalho de ML como pipelines reutilizáveis.
- Registo de modelos Vertex AI: faça a gestão do ciclo de vida dos seus modelos de ML, incluindo o controlo de versões e a implementação.
- Vertex AI serverless training: execute o seu código de programação personalizado a pedido num ambiente totalmente gerido
- Vertex AI Model Monitoring: monitorize os modelos implementados para detetar desvios de dados e degradação, de modo a manter o desempenho.
- Vertex AI Experiments: acompanhe e analise diferentes arquiteturas de modelos e hiperparâmetros.
- Vertex AI Feature Store: faça a gestão e forneça dados de funcionalidades para preparar modelos ou fazer previsões em tempo real.
- Vertex ML Metadata: acompanhe e faça a gestão de metadados para artefactos de AA.
- Clusters de preparação do Vertex AI: Prepare tarefas de grande escala que requerem capacidade garantida num cluster dedicado, reservado de aceleradores.
- Ray no Vertex AI: dimensione as cargas de trabalho de Python e ML com a estrutura Ray de código aberto num cluster gerido e interativo.
O que se segue?
- Explore a IA generativa no Vertex AI.
- Saiba mais sobre as funcionalidades de MLOps do Vertex AI.
- Explore as interfaces que pode usar para interagir com o Vertex AI.