O Vertex AI suporta uma lista organizada de modelos abertos como modelos geridos. Estes modelos abertos podem ser usados com o Vertex AI como um modelo como um serviço (MaaS) e são oferecidos como uma API gerida. Quando usa um modelo aberto gerido, continua a enviar os seus pedidos para os pontos finais da Vertex AI. Os modelos abertos geridos são sem servidor, pelo que não tem de aprovisionar nem gerir infraestrutura.
Os modelos abertos geridos podem ser descobertos através do Model Garden. Também pode implementar modelos através do Model Garden. Para mais informações, consulte o artigo Explore modelos de IA no Model Garden.
Antes de poder usar modelos abertos, tem de conceder acesso de utilizador a modelos abertos.
Abrir modelos
Os seguintes modelos abertos são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
| Nome do modelo | Modalidade | Descrição | Início rápido |
|---|---|---|---|
| DeepSeek-OCR | Idioma, visão | Um modelo de reconhecimento ótico de carateres (OCR) abrangente que analisa e compreende documentos complexos. É excelente em tarefas de OCR desafiantes. | Cartão de modelo |
| DeepSeek R1 (0528) | Idioma | A versão mais recente do modelo DeepSeek R1 da DeepSeek. | Cartão de modelo |
| DeepSeek-V3.1 | Idioma | O modelo híbrido da DeepSeek que suporta o modo de reflexão e o modo sem reflexão. | Cartão de modelo |
| gpt-oss 120B | Idioma | Um modelo de 120 mil milhões de parâmetros que oferece um elevado desempenho em tarefas de raciocínio. | Cartão de modelo |
| gpt-oss 20B | Idioma | Um modelo de 20 mil milhões de parâmetros otimizado para eficiência e implementação em hardware de consumo e periférico. | Cartão de modelo |
| Kimi K2 Thinking | Idioma | Um modelo de agente de reflexão de código aberto que raciocina passo a passo e usa ferramentas para resolver problemas complexos. | Cartão de modelo |
| Llama 3.1 | Idioma |
Uma coleção de MDIs/CEs multilingues otimizados para exemplos de utilização de diálogo multilingue e que superam muitos dos modelos de chat de código aberto e fechados disponíveis em referências comuns da indústria. O Llama 3.1 405B está disponível de forma geral (DG). O Llama 3.1 8B e o Llama 3.1 70B estão em pré-visualização. |
Cartão de modelo |
| Llama 3.2 (pré-visualização) | Idioma, visão | Um modelo multimodal de 90 mil milhões de parâmetros de tamanho médio que pode suportar o raciocínio de imagens, como a análise de gráficos, bem como a geração de legendas de imagens. | Cartão de modelo |
| Lama 3.3 | Idioma | O Llama 3.3 é um modelo de 70 mil milhões de parâmetros otimizado para instruções apenas de texto que oferece um desempenho melhorado em relação ao Llama 3.1 de 70 mil milhões de parâmetros e ao Llama 3.2 de 90 mil milhões de parâmetros quando usado para aplicações apenas de texto. Além disso, para algumas aplicações, o Llama 3.3 70B aproxima-se do desempenho do Llama 3.1 405B. | Cartão de modelo |
| Llama 4 Maverick 17B-128E | Idioma, visão | O modelo Llama 4 maior e mais capaz que tem capacidades de programação, raciocínio e imagem. O Llama 4 Maverick 17B-128E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão de modelo |
| Llama 4 Scout 17B-16E | Idioma, visão | O Llama 4 Scout 17B-16E oferece resultados de vanguarda para a sua classe de tamanho, superando as gerações anteriores do Llama e outros modelos abertos e proprietários em vários testes de referência. O Llama 4 Scout 17B-16E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão de modelo |
| MiniMax M2 | Idioma, código | Concebido para tarefas relacionadas com código e agentes, com fortes capacidades de planeamento e execução de tarefas complexas de chamadas de ferramentas. | Cartão de modelo |
| Qwen3 235B | Idioma | Um modelo de peso aberto com uma capacidade de "pensamento híbrido" para alternar entre o raciocínio metódico e a conversa rápida. | Cartão de modelo |
| Qwen3 Coder | Idioma, código | Um modelo de peso aberto desenvolvido para tarefas avançadas de programação de software. | Cartão de modelo |
| Qwen3-Next-80B Instruct | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado em seguir comandos específicos. | Cartão de modelo |
| Qwen3-Next-80B Thinking | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado na resolução de problemas complexos e no raciocínio profundo. | Cartão de modelo |
Os seguintes modelos de incorporação aberta são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
| Nome do modelo | Descrição | Dimensões de saída | Comprimento máximo da sequência | Idiomas de texto suportados | Início rápido |
|---|---|---|---|---|---|
| multilingual-e5-small | Parte da família de modelos de incorporação de texto E5. A variante pequena contém 12 camadas. | Até 384 | 512 tokens | Idiomas suportados | Cartão de modelo |
| multilingual-e5-large | Parte da família de modelos de incorporação de texto E5. A variante grande contém 24 camadas. | Até 1024 | 512 tokens | Idiomas suportados | Cartão de modelo |
Conformidade regulamentar do modelo aberto
As certificações para a IA generativa no Vertex AI continuam a aplicar-se quando os modelos abertos são usados como uma API gerida através do Vertex AI. Se precisar de detalhes sobre os próprios modelos, pode encontrar informações adicionais no cartão do modelo respetivo ou contactar o publicador do modelo respetivo.
Os seus dados são armazenados em repouso na região ou multirregião selecionada para modelos abertos na Vertex AI, mas a regionalização do tratamento de dados pode variar. Para uma lista detalhada dos compromissos de processamento de dados dos modelos abertos, consulte o artigo Residência de dados para modelos abertos.
Os comandos do cliente e as respostas do modelo não são partilhados com terceiros quando usa a API Vertex AI, incluindo modelos abertos. A Google apenas processa os dados de clientes conforme as instruções do cliente, o que é descrito em detalhe na nossa Alteração ao Tratamento de Dados do Cloud.
O que se segue?
- Antes de usar modelos abertos, conceda acesso de utilizador a modelos abertos.
- Saiba como chamar APIs de modelos abertos.