Modelos abertos da Vertex AI para MaaS

A Vertex AI oferece suporte a uma lista selecionada de modelos abertos como modelos gerenciados. Esses modelos abertos podem ser usados com a Vertex AI como modelo como serviço (MaaS) e são oferecidos como uma API gerenciada. Ao usar um modelo aberto gerenciado, você continua enviando solicitações para endpoints da Vertex AI. Os modelos abertos gerenciados não têm servidor, então não é necessário provisionar nem gerenciar a infraestrutura.

Os modelos abertos gerenciados podem ser descobertos usando o Model Garden. Também é possível implantar modelos usando o Model Garden. Para mais informações, consulte Conhecer modelos de IA no Model Garden.

Antes de usar modelos abertos, é necessário conceder acesso do usuário a eles.

Modelos abertos

Os seguintes modelos abertos são oferecidos como APIs gerenciadas no Model Garden da Vertex AI (MaaS):

Nome do modelo Modalidade Descrição Guia de início rápido
gpt-oss 120B Idioma Um modelo de 120 bilhões de parâmetros que oferece alto desempenho em tarefas de raciocínio. Card de modelo
gpt-oss 20B Idioma Um modelo de 20 bilhões de parâmetros otimizado para eficiência e implantação em hardware de consumo e de borda. Card de modelo
Qwen3-Next-80B Thinking Idioma, código Um modelo da família Qwen3-Next, especializado em resolução de problemas complexos e raciocínio profundo. Card de modelo
Qwen3-Next-80B Instruct Idioma, código Um modelo da família Qwen3-Next, especializado em seguir comandos específicos. Card de modelo
Qwen3 Coder Idioma, código Um modelo de peso aberto desenvolvido para tarefas avançadas de desenvolvimento de software. Card de modelo
Qwen3 235B Idioma Um modelo de peso aberto com capacidade de "pensamento híbrido" para alternar entre raciocínio metódico e conversa rápida. Card de modelo
DeepSeek-V3.1 Idioma Modelo híbrido da DeepSeek que oferece suporte aos modos de raciocínio e sem raciocínio. Card de modelo
DeepSeek R1 (0528) Idioma A versão mais recente do modelo DeepSeek R1. Card de modelo
Llama 4 Maverick 17B-128E Linguagem, visão O maior e mais eficiente modelo Llama 4 com recursos de programação, raciocínio e imagem. O Llama 4 Maverick 17B-128E é um modelo multimodal que usa a arquitetura de combinação de especialistas (MoE) e fusão antecipada. Card de modelo
Llama 4 Scout 17B-16E Linguagem, visão O Llama 4 Scout 17B-16E oferece resultados de ponta para a classe de tamanho dele, superando gerações anteriores do Llama e outros modelos abertos e proprietários em vários comparativos. O Llama 4 Scout 17B-16E é um modelo multimodal que usa a arquitetura de combinação de especialistas (MoE) e fusão antecipada. Card de modelo
Llama 3.3 Idioma O Llama 3.3 é um modelo de 70 bilhões de parâmetros ajustado por instruções somente de texto que oferece desempenho aprimorado em relação ao Llama 3.1 70B e ao Llama 3.2 90B quando usado em aplicativos somente de texto. Além disso, para alguns aplicativos, o Llama 3.3 70B se aproxima do desempenho do Llama 3.1 405B. Card de modelo
Llama 3.2 (pré-lançamento) Linguagem, visão Um modelo multimodal de 90B de tamanho médio que dá suporte ao raciocínio de imagem, como análise de gráficos e legendas de imagens. Card de modelo
Llama 3.1 Idioma

Uma coleção de LLMs multilíngues otimizados para casos de uso de diálogo multilíngue, que superam muitos dos modelos de chat fechados e de código aberto em comparativos de mercado comuns.

O Llama 3.1 405B está em disponibilidade geral (GA).

O Llama 3.1 8B e o Llama 3.1 70B estão em pré-lançamento.

Card de modelo

Os seguintes modelos de incorporação aberta são oferecidos como APIs gerenciadas no Model Garden da Vertex AI (MaaS):

Nome do modelo Descrição Dimensões de saída Comprimento máximo da sequência Idiomas de texto compatíveis Guia de início rápido
multilingual-e5-small Faz parte da família E5 de modelos de embedding de texto. A variante pequena contém 12 camadas. Até 384 512 tokens Idiomas disponíveis Card de modelo
multilingual-e5-large Faz parte da família E5 de modelos de embedding de texto. A variante grande tem 24 camadas. Até 1.024 512 tokens Idiomas disponíveis Card de modelo

Conformidade regulamentar de modelos abertos

As certificações da IA generativa na Vertex AI continuam válidas quando modelos abertos são usados como uma API gerenciada com a Vertex AI. Se você precisar de detalhes sobre os modelos, mais informações podem ser encontradas no card de modelo respectivo ou entre em contato com o editor do modelo.

Seus dados são armazenados em repouso na região ou multirregião selecionada para modelos abertos na Vertex AI, mas a regionalização do tratamento de dados pode variar. Para uma lista detalhada dos compromissos de tratamento de dados dos modelos abertos, consulte Residência de dados para modelos abertos.

Os comandos do cliente e as respostas do modelo não são compartilhados com terceiros ao usar a API Vertex AI, incluindo modelos abertos. O Google só trata os dados do cliente conforme instruído por ele, o que é descrito no Aditivo sobre tratamento de dados do Cloud.

A seguir