Model GLM di Vertex AI menawarkan model terkelola sepenuhnya dan tanpa server sebagai API. Untuk menggunakan model GLM di Vertex AI, kirim permintaan langsung ke endpoint Vertex AI API. Karena model GLM menggunakan API terkelola, Anda tidak perlu menyediakan atau mengelola infrastruktur.
Anda dapat melakukan streaming respons untuk mengurangi persepsi latensi pengguna akhir. Respons yang di-streaming menggunakan peristiwa yang dikirim server (SSE) untuk mengalirkan respons secara bertahap.
GLM 4.7
GLM 4.7 adalah model dari GLM yang dirancang untuk coding inti atau vibe, penggunaan alat, dan penalaran yang kompleks.
Buka kartu model GLM 4.7GLM 5
GLM 5 adalah model dari GLM yang menargetkan tugas agentik dengan cakupan panjang dan rekayasa sistem yang kompleks.
Buka kartu model GLM 5Menggunakan model GLM
Untuk model terkelola, Anda dapat menggunakan perintah curl untuk mengirim permintaan ke endpoint Vertex AI menggunakan nama model berikut:
- Untuk GLM 4.7, gunakan
glm-4.7-maas - Untuk GLM 5, gunakan
glm-5-maas
Untuk mempelajari cara melakukan panggilan streaming dan non-streaming ke model GLM, lihat Memanggil API model terbuka.
Untuk menggunakan model Vertex AI yang di-deploy sendiri:
- Buka konsol Model Garden.
- Temukan model Vertex AI yang relevan.
- Klik Aktifkan dan isi formulir yang disediakan untuk mendapatkan lisensi penggunaan komersial yang diperlukan.
Untuk mengetahui informasi selengkapnya tentang men-deploy dan menggunakan model partner, lihat Men-deploy model partner dan membuat permintaan prediksi .
Ketersediaan wilayah model GLM
Model GLM tersedia di region berikut:
| Model | Region |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
Langkah berikutnya
Pelajari cara Memanggil API model terbuka.