Les modèles GLM sur Vertex AI offrent des modèles entièrement gérés et sans serveur en tant qu'API. Pour utiliser un modèle GLM sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Étant donné que les modèles GLM utilisent une API gérée, il n'est pas nécessaire de provisionner ni de gérer l'infrastructure.
Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.
GLM 4.7
GLM 4.7 est un modèle de GLM conçu pour le codage de base ou vibe coding, l'utilisation d'outils et le raisonnement complexe.
Accéder à la fiche de modèle GLM 4.7GLM 5
GLM 5 est un modèle de GLM ciblant l'ingénierie de systèmes complexes et les tâches agentiques à long terme.
Accéder à la fiche de modèle GLM 5Utiliser des modèles GLM
Pour les modèles gérés, vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI à l'aide des noms de modèles suivants :
- Pour GLM 4.7, utilisez
glm-4.7-maas. - Pour GLM 5, utilisez
glm-5-maas.
Pour savoir comment effectuer des appels de streaming et non-streaming aux modèles GLM, consultez Appeler des API de modèles ouverts.
Pour utiliser un modèle Vertex AI auto-déployé :
- Accédez à la console Model Garden.
- Trouvez le modèle Vertex AI approprié.
- Cliquez sur Activer et remplissez le formulaire fourni pour obtenir les licences d'utilisation commerciale nécessaires.
Pour en savoir plus sur le déploiement et l'utilisation des modèles partenaires, consultez Déployer un modèle partenaire et envoyer des requêtes de prédiction .
Disponibilité des régions pour les modèles GLM
Les modèles GLM sont disponibles dans les régions suivantes :
| Modèle | Régions |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
Étapes suivantes
Découvrez comment appeler des API de modèles ouverts.