O Vertex AI suporta uma lista organizada de modelos abertos e de parceiros como modelos geridos. Estes modelos podem ser usados com a Vertex AI como um modelo como serviço (MaaS) e são oferecidos como uma API gerida. Quando usa um modelo gerido, continua a enviar os seus pedidos para os pontos finais da Vertex AI. Os modelos geridos são sem servidor, pelo que não tem de aprovisionar nem gerir infraestruturas.
Pode descobrir modelos geridos através do Model Garden. Também pode implementar modelos através do Model Garden. Para mais informações, consulte o artigo Explore modelos de IA no Model Garden.
Modelos de parceiros
Os seguintes modelos de parceiros são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
| Nome do modelo | Modalidade | Descrição | Início rápido |
|---|---|---|---|
| Claude Opus 4.5 | Idioma, visão | A próxima geração do modelo mais inteligente da Anthropic, o Claude Opus 4.5, é um líder da indústria em programação, agentes, utilização de computadores e fluxos de trabalho empresariais. | Cartão de modelo |
| Claude Sonnet 4.5 | Idioma, visão | O modelo de tamanho médio da Anthropic para potenciar agentes do mundo real, com capacidades em programação, utilização de computadores, cibersegurança e trabalho com ficheiros do Office, como folhas de cálculo. | Cartão de modelo |
| Claude Opus 4.1 | Idioma, visão | Um líder da indústria na programação. Oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço concentrado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. Ideal para potenciar produtos de agentes de vanguarda e funcionalidades. | Cartão de modelo |
| Claude Haiku 4.5 | Idioma, visão | O Claude Haiku 4.5 oferece um desempenho quase de ponta para uma vasta gama de exemplos de utilização e destaca-se como um dos melhores modelos de programação do mundo, com a velocidade e o custo certos para potenciar produtos gratuitos e experiências do utilizador de grande volume. | Cartão de modelo |
| Claude Opus 4 | Idioma, visão | O Claude Opus 4 oferece um desempenho sustentado em tarefas de longa duração que requerem um esforço focado e milhares de passos, expandindo significativamente o que os agentes de IA podem resolver. | Cartão de modelo |
| Claude Sonnet 4 | Idioma, visão | O modelo de tamanho médio da Anthropic com inteligência superior para utilizações de grande volume, como programação, investigação detalhada e agentes. | Cartão de modelo |
| Claude 3.5 Sonnet v2 da Anthropic | Idioma, visão | O Claude 3.5 Sonnet atualizado é um modelo de vanguarda para tarefas de engenharia de software do mundo real e capacidades de agente. O Claude 3.5 Sonnet oferece estes avanços ao mesmo preço e velocidade que o seu antecessor. | Cartão de modelo |
| Claude 3.5 Haiku da Anthropic | Idioma, visão | O Claude 3.5 Haiku, a próxima geração do modelo mais rápido e económico da Anthropic, é ideal para casos de utilização em que a velocidade e a acessibilidade são importantes. | Cartão de modelo |
| Claude 3 Haiku da Anthropic | Idioma | O modelo de visão e texto mais rápido da Anthropic para respostas quase instantâneas a consultas básicas, destinado a experiências de IA perfeitas que imitam as interações humanas. | Cartão de modelo |
| Claude 3.5 Sonnet da Anthropic | Idioma | O Claude 3.5 Sonnet supera o Claude 3 Opus da Anthropic numa vasta gama de avaliações da Anthropic com a velocidade e o custo do modelo de nível intermédio da Anthropic, o Claude 3 Sonnet. | Cartão de modelo |
| Jamba 1.5 Large (pré-visualização) | Idioma | O Jamba 1.5 Large da AI21 Labs foi concebido para oferecer respostas de qualidade superior, elevado débito e preços competitivos em comparação com outros modelos da sua classe de tamanho. | Cartão de modelo |
| Jamba 1.5 Mini (pré-visualização) | Idioma | O Jamba 1.5 Mini da AI21 Labs está bem equilibrado em termos de qualidade, taxa de transferência e baixo custo. | Cartão de modelo |
| Mistral Medium 3 | Idioma | O Mistral Medium 3 é um modelo versátil concebido para uma vasta gama de tarefas, incluindo programação, raciocínio matemático, compreensão de documentos longos, resumo e diálogo. | Cartão de modelo |
| Mistral OCR (25.05) | Idioma, visão | O Mistral OCR (25.05) é uma API de reconhecimento ótico de carateres para a interpretação de documentos. O modelo compreende cada elemento dos documentos, como conteúdo multimédia, texto, tabelas e equações. | Cartão de modelo |
| Mistral Small 3.1 (25/03) | Idioma | O Mistral Small 3.1 (25/03) é a versão mais recente do modelo Small da Mistral, com capacidades multimodais e extensão do contexto. | Cartão de modelo |
| Mistral Large (24.11) | Idioma | O Mistral Large (24.11) é a versão seguinte do modelo Mistral Large (24.07), agora com capacidades de raciocínio e de chamadas de funções melhoradas. | Cartão de modelo |
| Codestral 2 | Idioma, código | O Codestral 2 é o modelo especializado de geração de código da Mistral criado especificamente para a conclusão de preenchimento do meio (FIM) de alta precisão que ajuda os programadores a escrever e interagir com o código através de um ponto final da API de instruções e conclusões partilhado. | Cartão de modelo |
| Codestral (25.01) | Código | Um modelo de ponta concebido para a geração de código, incluindo o preenchimento de lacunas e a conclusão de código. | Cartão de modelo |
Abrir modelos
Os seguintes modelos abertos são oferecidos como APIs geridas no Vertex AI Model Garden (MaaS):
| Nome do modelo | Modalidade | Descrição | Início rápido |
|---|---|---|---|
| DeepSeek-OCR | Idioma, visão | Um modelo de reconhecimento ótico de carateres (OCR) abrangente que analisa e compreende documentos complexos. É excelente em tarefas de OCR desafiantes. | Cartão de modelo |
| DeepSeek R1 (0528) | Idioma | A versão mais recente do modelo DeepSeek R1 da DeepSeek. | Cartão de modelo |
| DeepSeek-V3.1 | Idioma | O modelo híbrido da DeepSeek que suporta o modo de reflexão e o modo sem reflexão. | Cartão de modelo |
| DeepSeek-V3.2 | Idioma | O modelo da DeepSeek que harmoniza a elevada eficiência computacional com um raciocínio superior e o desempenho do agente. | Cartão de modelo |
| gpt-oss 120B | Idioma | Um modelo de 120 mil milhões de parâmetros que oferece um elevado desempenho em tarefas de raciocínio. | Cartão de modelo |
| gpt-oss 20B | Idioma | Um modelo de 20 mil milhões de parâmetros otimizado para eficiência e implementação em hardware de consumo e periférico. | Cartão de modelo |
| Kimi K2 Thinking | Idioma | Um modelo de agente de raciocínio de código aberto que raciocina passo a passo e usa ferramentas para resolver problemas complexos. | Cartão de modelo |
| Llama 3.1 | Idioma |
Uma coleção de MDIs/CEs multilingues otimizados para exemplos de utilização de diálogo multilingue e que superam muitos dos modelos de chat de código aberto e fechados disponíveis em referências comuns da indústria. O Llama 3.1 405B está disponível de forma geral (DG). O Llama 3.1 8B e o Llama 3.1 70B estão em pré-visualização. |
Cartão de modelo |
| Llama 3.2 (pré-visualização) | Idioma, visão | Um modelo multimodal de 90 mil milhões de parâmetros de tamanho médio que pode suportar o raciocínio de imagens, como a análise de tabelas e gráficos, bem como a geração de legendas de imagens. | Cartão de modelo |
| Llama 3.3 | Idioma | O Llama 3.3 é um modelo de 70 mil milhões de parâmetros otimizado para instruções apenas de texto que oferece um desempenho melhorado em relação ao Llama 3.1 de 70 mil milhões de parâmetros e ao Llama 3.2 de 90 mil milhões de parâmetros quando usado para aplicações apenas de texto. Além disso, para algumas aplicações, o Llama 3.3 70B aproxima-se do desempenho do Llama 3.1 405B. | Cartão de modelo |
| Llama 4 Maverick 17B-128E | Idioma, visão | O modelo Llama 4 maior e mais capaz que tem capacidades de programação, raciocínio e imagem. O Llama 4 Maverick 17B-128E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão de modelo |
| Llama 4 Scout 17B-16E | Idioma, visão | O Llama 4 Scout 17B-16E oferece resultados de vanguarda para a sua classe de tamanho, superando as gerações anteriores do Llama e outros modelos abertos e proprietários em vários testes de referência. O Llama 4 Scout 17B-16E é um modelo multimodal que usa a arquitetura de mistura de especialistas (MoE) e a fusão antecipada. | Cartão de modelo |
| MiniMax M2 | Idioma, código | Concebido para tarefas relacionadas com código e agentes com capacidades fortes no planeamento e execução de tarefas complexas de chamadas de ferramentas. | Cartão de modelo |
| Qwen3 235B | Idioma | Um modelo de peso aberto com uma capacidade de "pensamento híbrido" para alternar entre o raciocínio metódico e a conversa rápida. | Cartão de modelo |
| Qwen3 Coder | Idioma, código | Um modelo de peso aberto desenvolvido para tarefas avançadas de programação de software. | Cartão de modelo |
| Qwen3-Next-80B Instruct | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado em seguir comandos específicos. | Cartão de modelo |
| Qwen3-Next-80B Thinking | Idioma, código | Um modelo da família de modelos Qwen3-Next, especializado na resolução de problemas complexos e no raciocínio profundo. | Cartão de modelo |
O que se segue?
- Saiba mais sobre os modelos abertos da Vertex AI para o MaaS.
- Saiba como chamar APIs de modelos abertos.