Os modelos GLM na Vertex AI oferecem modelos totalmente gerenciados e sem servidor modelos como APIs. Para usar um modelo GLM na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Devido ao Os modelos GLM usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.
É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
GLM 4.7
O GLM 4.7 é um modelo da GLM projetado para programação normal ou vibe coding, uso de ferramentas e raciocínio complexo.
Acessar o card de modelo do GLM 4.7GLM 5
O GLM 5 é um modelo da GLM voltado para engenharia de sistemas complexos e tarefas de agentes de longo prazo.
Acessar o card de modelo do GLM 5Usar modelos GLM
Para modelos gerenciados, é possível usar comandos curl para enviar solicitações ao endpoint da Vertex AI usando os seguintes nomes de modelos:
- Para o GLM 4.7, use
glm-4.7-maas - Para o GLM 5, use
glm-5-maas
Para saber como fazer chamadas de streaming e não streaming para modelos GLM, consulte Chamar APIs de modelos abertos.
Para usar um modelo autoimplantado da Vertex AI:
- Navegue até o console do Model Garden.
- Encontre o modelo relevante da Vertex AI.
- Clique em Ativar e preencha o formulário fornecido para receber as licenças de uso comercial necessárias.
Para mais informações sobre como implantar e usar modelos de parceiros, consulte Implantar um modelo de parceiro e fazer solicitações de previsão .
Disponibilidade regional do modelo GLM
Os modelos GLM estão disponíveis nas seguintes regiões:
| Modelo | Regiões |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
A seguir
Saiba como chamar APIs de modelos abertos.