Os modelos MiniMax na Vertex AI oferecem modelos totalmente gerenciados e sem servidor como APIs. Para usar um modelo MiniMax na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Como os modelos do MiniMax usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.
É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
Modelos do MiniMax disponíveis
Os modelos a seguir estão disponíveis na MiniMax para uso na Vertex AI. Para acessar um modelo da MiniMax, acesse o card de modelo do Model Garden.
MiniMax M2
O MiniMax M2 é um modelo da MiniMax projetado para tarefas de agente e relacionadas a código. Ele foi criado para fluxos de trabalho de desenvolvimento de ponta a ponta e tem recursos avançados no planejamento e na execução de tarefas complexas de chamada de função. O modelo é otimizado para oferecer um equilíbrio entre desempenho, custo e velocidade de inferência.
Acessar o card de modelo do MiniMax M2
Usar modelos MiniMax
É possível usar comandos curl para enviar solicitações ao endpoint da Vertex AI usando os seguintes nomes de modelos:
- Para o MiniMax M2, use
minimax-m2-maas
Para saber como fazer chamadas de streaming e não streaming para modelos MiniMax, consulte Chamar APIs de modelos abertos.
Disponibilidade e cotas da região do modelo MiniMax
Para modelos MiniMax, uma cota se aplica a cada região em que o modelo está disponível. A cota é especificada em consultas por minuto (QPM, na sigla em inglês).
| Modelo | Região | Cotas | Tamanho do contexto | Saída máxima |
|---|---|---|---|---|
| MiniMax M2 | ||||
global endpoint |
|
196.608 | 4.096 |
Para aumentar alguma das suas cotas de IA generativa na Vertex AI, use o console Google Cloud para solicitar um aumento de cota. Para saber mais sobre cotas, consulte a Visão geral das cotas do Cloud.
A seguir
- Saiba como chamar APIs de modelos abertos.