Modelos GLM

Os modelos GLM na Vertex AI oferecem modelos totalmente gerenciados e sem servidor modelos como APIs. Para usar um modelo GLM na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Devido ao Os modelos GLM usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.

É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

GLM 4.7

O GLM 4.7 é um modelo da GLM projetado para programação normal ou vibe coding, uso de ferramentas e raciocínio complexo.

Acessar o card de modelo do GLM 4.7

GLM 5

O GLM 5 é um modelo da GLM voltado para engenharia de sistemas complexos e tarefas de agentes de longo prazo.

Acessar o card de modelo do GLM 5

Usar modelos GLM

Para modelos gerenciados, é possível usar comandos curl para enviar solicitações ao endpoint da Vertex AI usando os seguintes nomes de modelos:

  • Para o GLM 4.7, use glm-4.7-maas
  • Para o GLM 5, use glm-5-maas

Para saber como fazer chamadas de streaming e não streaming para modelos GLM, consulte Chamar APIs de modelos abertos.

Para usar um modelo autoimplantado da Vertex AI:

  1. Navegue até o console do Model Garden.
  2. Encontre o modelo relevante da Vertex AI.
  3. Clique em Ativar e preencha o formulário fornecido para receber as licenças de uso comercial necessárias.

Para mais informações sobre como implantar e usar modelos de parceiros, consulte Implantar um modelo de parceiro e fazer solicitações de previsão .

Disponibilidade regional do modelo GLM

Os modelos GLM estão disponíveis nas seguintes regiões:

Modelo Regiões
GLM 4.7
  • global
    • Saída máxima: 128.000
    • Tamanho do contexto: 200.000
GLM 5
  • global
    • Saída máxima: 128.000
    • Tamanho do contexto: 200.000

A seguir

Saiba como chamar APIs de modelos abertos.