GLM-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein GLM-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da GLM-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.
Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet Server-Sent Events (SSE), um die Antwort schrittweise zu streamen.
GLM 4.7
GLM 4.7 ist ein Modell von GLM, das für Core und Vibe Coding, die Toolnutzung und komplexe Schlussfolgerungen entwickelt wurde.
Zur GLM 4.7-ModellkarteGLM 5
GLM 5 ist ein Modell von GLM, das auf komplexes Systems Engineering und langfristige Agent-Aufgaben ausgerichtet ist.
Zur GLM 5-ModellkarteGLM-Modelle verwenden
Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:
- Verwenden Sie für GLM 4.7
glm-4.7-maas. - Verwenden Sie für GLM 5
glm-5-maas.
Informationen zum Ausführen von Streaming- und Nicht-Streaming-Aufrufen für GLM-Modelle finden Sie unter Open-Model-APIs aufrufen.
So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:
- Rufen Sie die Model Garden-Konsole auf.
- Suchen Sie das entsprechende Vertex AI-Modell.
- Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.
Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .
Regionale Verfügbarkeit von GLM-Modellen
GLM-Modelle sind in den folgenden Regionen verfügbar:
| Modell | Regionen |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
Nächste Schritte
Informationen zum Aufrufen von APIs für offene Modelle