Modelos MiniMax

Os modelos MiniMax na Vertex AI oferecem modelos totalmente gerenciados e sem servidor como APIs. Para usar um modelo MiniMax na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Como os modelos do MiniMax usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.

É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

Modelos do MiniMax disponíveis

Os modelos a seguir estão disponíveis na MiniMax para uso na Vertex AI. Para acessar um modelo da MiniMax, acesse o card de modelo do Model Garden.

MiniMax M2

O MiniMax M2 é um modelo da MiniMax projetado para tarefas de agente e relacionadas a código. Ele foi criado para fluxos de trabalho de desenvolvimento de ponta a ponta e tem recursos avançados no planejamento e na execução de tarefas complexas de chamada de função. O modelo é otimizado para oferecer um equilíbrio entre desempenho, custo e velocidade de inferência.

Acessar o card de modelo do MiniMax M2

Usar modelos MiniMax

É possível usar comandos curl para enviar solicitações ao endpoint da Vertex AI usando os seguintes nomes de modelos:

  • Para o MiniMax M2, use minimax-m2-maas

Para saber como fazer chamadas de streaming e não streaming para modelos MiniMax, consulte Chamar APIs de modelos abertos.

Disponibilidade e cotas da região do modelo MiniMax

Para modelos MiniMax, uma cota se aplica a cada região em que o modelo está disponível. A cota é especificada em consultas por minuto (QPM, na sigla em inglês).

Modelo Região Cotas Tamanho do contexto Saída máxima
MiniMax M2
global endpoint
196.608 4.096

Para aumentar alguma das suas cotas de IA generativa na Vertex AI, use o console Google Cloud para solicitar um aumento de cota. Para saber mais sobre cotas, consulte a Visão geral das cotas do Cloud.

A seguir