Los modelos GLM en Vertex AI ofrecen modelos completamente administrados y sin servidores como APIs. Para usar un modelo de GLM en Vertex AI, envía una solicitud directamente al extremo de API de Vertex AI. Debido a que los modelos de GLM usan una API administrada, no es necesario aprovisionar ni administrar la infraestructura.
Puedes transmitir tus respuestas para reducir la percepción de latencia del usuario final. Una respuesta transmitida usa eventos enviados por el servidor (SSE) para transmitir la respuesta de forma incremental.
GLM 4.7
GLM 4.7 es un modelo de GLM diseñado para la programación básica o el vibe coding, el uso de herramientas y el razonamiento complejo.
Ir a la tarjeta del modelo de GLM 4.7GLM 5
GLM 5 es un modelo de GLM que se enfoca en la ingeniería de sistemas complejos y las tareas de agentes a largo plazo.
Ir a la tarjeta de modelo de GLM 5Usa modelos de GLM
En el caso de los modelos administrados, puedes usar comandos curl para enviar solicitudes al extremo de Vertex AI con los siguientes nombres de modelos:
- Para GLM 4.7, usa
glm-4.7-maas - Para GLM 5, usa
glm-5-maas
Para obtener información sobre cómo realizar llamadas de transmisión y no transmisión a los modelos de GLM, consulta Cómo llamar a las APIs de modelos abiertos.
Para usar un modelo de Vertex AI implementado por tu cuenta, haz lo siguiente:
- Navega a la consola de Model Garden.
- Busca el modelo de Vertex AI pertinente.
- Haz clic en Habilitar y completa el formulario proporcionado para obtener las licencias de uso comercial necesarias.
Para obtener más información sobre la implementación y el uso de modelos de socios, consulta Implementa un modelo de socio y realiza solicitudes de predicción .
Disponibilidad regional del modelo GLM
Los modelos de GLM están disponibles en las siguientes regiones:
| Modelo | Regiones |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
¿Qué sigue?
Obtén más información para llamar a las APIs de modelos abiertos.