Model GLM

Model GLM di Vertex AI menawarkan model terkelola sepenuhnya dan tanpa server sebagai API. Untuk menggunakan model GLM di Vertex AI, kirim permintaan langsung ke endpoint Vertex AI API. Karena model GLM menggunakan API terkelola, Anda tidak perlu menyediakan atau mengelola infrastruktur.

Anda dapat melakukan streaming respons untuk mengurangi persepsi latensi pengguna akhir. Respons yang di-streaming menggunakan peristiwa yang dikirim server (SSE) untuk mengalirkan respons secara bertahap.

GLM 4.7

GLM 4.7 adalah model dari GLM yang dirancang untuk coding inti atau vibe, penggunaan alat, dan penalaran yang kompleks.

Buka kartu model GLM 4.7

GLM 5

GLM 5 adalah model dari GLM yang menargetkan tugas agentik dengan cakupan panjang dan rekayasa sistem yang kompleks.

Buka kartu model GLM 5

Menggunakan model GLM

Untuk model terkelola, Anda dapat menggunakan perintah curl untuk mengirim permintaan ke endpoint Vertex AI menggunakan nama model berikut:

  • Untuk GLM 4.7, gunakan glm-4.7-maas
  • Untuk GLM 5, gunakan glm-5-maas

Untuk mempelajari cara melakukan panggilan streaming dan non-streaming ke model GLM, lihat Memanggil API model terbuka.

Untuk menggunakan model Vertex AI yang di-deploy sendiri:

  1. Buka konsol Model Garden.
  2. Temukan model Vertex AI yang relevan.
  3. Klik Aktifkan dan isi formulir yang disediakan untuk mendapatkan lisensi penggunaan komersial yang diperlukan.

Untuk mengetahui informasi selengkapnya tentang men-deploy dan menggunakan model partner, lihat Men-deploy model partner dan membuat permintaan prediksi .

Ketersediaan wilayah model GLM

Model GLM tersedia di region berikut:

Model Region
GLM 4.7
  • global
    • Output maks: 128.000
    • Panjang konteks: 200.000
GLM 5
  • global
    • Output maks: 128.000
    • Panjang konteks: 200.000

Langkah berikutnya

Pelajari cara Memanggil API model terbuka.