O Vertex AI suporta uma lista organizada de modelos abertos como modelos geridos. Estes modelos abertos podem ser usados com a Vertex AI como um modelo como um serviço (MaaS) e são oferecidos como uma API gerida. Quando usa um modelo aberto gerido, continua a enviar os seus pedidos para os pontos finais da Vertex AI. Os modelos abertos geridos são sem servidor, pelo que não tem de aprovisionar nem gerir infraestrutura.
Os modelos abertos geridos podem ser descobertos através do Model Garden. Também pode implementar modelos através do Model Garden. Para mais informações, consulte o artigo Explore modelos de IA no Model Garden.
Antes de poder usar modelos abertos, tem de conceder acesso de utilizador a modelos abertos.
Abrir modelos
Os seguintes modelos abertos são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
Nome do modelo | Modalidade | Descrição | Início rápido |
---|---|---|---|
gpt-oss 120B | Idioma | Um modelo de 120 mil milhões de parâmetros que oferece um elevado desempenho em tarefas de raciocínio. | Cartão do modelo |
gpt-oss 20B | Idioma | Um modelo de 20 mil milhões de parâmetros otimizado para eficiência e implementação em hardware de consumo e periférico. | Cartão do modelo |
Qwen3-Next-80B Thinking | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado na resolução de problemas complexos e no raciocínio profundo. | Cartão do modelo |
Qwen3-Next-80B Instruct | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado para seguir comandos específicos. | Cartão do modelo |
Qwen3 Coder | Idioma, código | Um modelo de peso aberto desenvolvido para tarefas avançadas de programação de software. | Cartão do modelo |
Qwen3 235B | Idioma | Um modelo de peso aberto com uma capacidade de "pensamento híbrido" para alternar entre o raciocínio metódico e a conversa rápida. | Cartão do modelo |
DeepSeek-V3.1 | Idioma | O modelo híbrido da DeepSeek que suporta o modo de reflexão e o modo sem reflexão. | Cartão do modelo |
DeepSeek R1 (0528) | Idioma | A versão mais recente do modelo DeepSeek R1 da DeepSeek. | Cartão do modelo |
Llama 4 Maverick 17B-128E | Idioma, visão | O modelo Llama 4 maior e mais capaz que tem capacidades de programação, raciocínio e imagem. O Llama 4 Maverick 17B-128E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão do modelo |
Llama 4 Scout 17B-16E | Idioma, visão | O Llama 4 Scout 17B-16E oferece resultados de vanguarda para a sua classe de tamanho, superando as gerações anteriores do Llama e outros modelos abertos e proprietários em vários testes de referência. O Llama 4 Scout 17B-16E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão do modelo |
Llama 3.3 | Idioma | O Llama 3.3 é um modelo de 70 mil milhões de parâmetros otimizado para instruções apenas de texto que oferece um desempenho melhorado em relação ao Llama 3.1 de 70 mil milhões de parâmetros e ao Llama 3.2 de 90 mil milhões de parâmetros quando usado para aplicações apenas de texto. Além disso, para algumas aplicações, o Llama 3.3 70B aproxima-se do desempenho do Llama 3.1 405B. | Cartão do modelo |
Llama 3.2 (pré-visualização) | Idioma, visão | Um modelo multimodal de 90 mil milhões de parâmetros de tamanho médio que pode suportar o raciocínio de imagens, como a análise de tabelas e gráficos, bem como a geração de legendas de imagens. | Cartão do modelo |
Llama 3.1 | Idioma |
Uma coleção de GMLs multilingues otimizados para exemplos de utilização de diálogo multilingue e que superam muitos dos modelos de chat de código aberto e fechados disponíveis em referências comuns da indústria. O Llama 3.1 405B está disponível de forma geral (DG). O Llama 3.1 8B e o Llama 3.1 70B estão em pré-visualização. |
Cartão do modelo |
Os seguintes modelos de incorporação aberta são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
Nome do modelo | Descrição | Dimensões de saída | Duração máxima da sequência | Idiomas de texto suportados | Início rápido |
---|---|---|---|---|---|
multilingual-e5-small | Parte da família de modelos de incorporação de texto E5. A variante pequena contém 12 camadas. | Até 384 | 512 tokens | Idiomas suportados | Cartão do modelo |
multilingual-e5-large | Parte da família de modelos de incorporação de texto E5. A variante grande contém 24 camadas. | Até 1024 | 512 tokens | Idiomas suportados | Cartão do modelo |
Conformidade regulamentar do modelo aberto
As certificações para a IA generativa no Vertex AI continuam a aplicar-se quando os modelos abertos são usados como uma API gerida através do Vertex AI. Se precisar de detalhes sobre os próprios modelos, pode encontrar informações adicionais no cartão do modelo respetivo ou contactar o publicador do modelo respetivo.
Os seus dados são armazenados em repouso na região ou multirregião selecionada para modelos abertos na Vertex AI, mas a regionalização do tratamento de dados pode variar. Para uma lista detalhada dos compromissos de processamento de dados dos modelos abertos, consulte o artigo Residência de dados para modelos abertos.
Os comandos do cliente e as respostas do modelo não são partilhados com terceiros quando usa a API Vertex AI, incluindo modelos abertos. A Google apenas processa os dados de clientes conforme as instruções do cliente, o que é descrito em detalhe na nossa Alteração ao Tratamento de Dados do Cloud.
O que se segue?
- Antes de usar modelos abertos, conceda acesso de utilizador a modelos abertos.
- Saiba como chamar APIs de modelos abertos.