I modelli GLM su Vertex AI offrono modelli completamente gestiti e serverless come API. Per utilizzare un modello GLM su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Poiché i modelli GLM utilizzano un'API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.
Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.
GLM 4.7
GLM 4.7 è un modello di GLM progettato per la programmazione di base o il vibe coding, l'utilizzo di strumenti e il ragionamento complesso.
Vai alla scheda del modello GLM 4.7GLM 5
GLM 5 è un modello di GLM che ha come target l'ingegneria di sistemi complessi e le attività agentiche a lungo termine.
Vai alla scheda del modello GLM 5Utilizzare i modelli GLM
Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:
- Per GLM 4.7, utilizza
glm-4.7-maas - Per GLM 5, utilizza
glm-5-maas
Per scoprire come effettuare chiamate in streaming e non in streaming ai modelli GLM, consulta Chiamare le API del modello aperto.
Per utilizzare un modello Vertex AI con deployment automatico:
- Vai alla console Model Garden.
- Trova il modello Vertex AI pertinente.
- Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.
Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .
Disponibilità regionale del modello GLM
I modelli GLM sono disponibili nelle seguenti regioni:
| Modello | Regioni |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
Passaggi successivi
Scopri come chiamare le API dei modelli aperti.