GLM 模型

Vertex AI 上的 GLM 模型提供全代管的無伺服器模型,並以 API 形式提供。如要在 Vertex AI 上使用 GLM 模型,請直接將要求傳送至 Vertex AI API 端點。由於 GLM 模型使用代管 API,因此不需要佈建或管理基礎架構。

您可以串流回應,減少使用者對延遲的感受。串流回應會使用伺服器推送事件 (SSE) 逐步串流回應。

GLM 4.7

GLM 4.7 是 GLM 提供的模型,適用於核心或直覺式程式開發、工具操作和複雜推論。

前往 GLM 4.7 模型資訊卡

GLM 5

GLM 5 是 GLM 提供的模型,適用於複雜的系統工程和長期代理工作。

前往 GLM 5 模型資訊卡

使用 GLM 模型

如果是受管理模型,您可以使用 curl 指令,透過下列模型名稱將要求傳送至 Vertex AI 端點:

  • 如果是 GLM 4.7,請使用 glm-4.7-maas
  • 如果是 GLM 5,請使用 glm-5-maas

如要瞭解如何對 GLM 模型發出串流和非串流呼叫,請參閱「呼叫開放模型 API」。

如要使用自行部署的 Vertex AI 模型,請按照下列步驟操作:

  1. 前往 Model Garden 控制台
  2. 找出相關的 Vertex AI 模型。
  3. 按一下「啟用」並填寫表單,取得必要的商業用途授權。

如要進一步瞭解如何部署及使用合作夥伴模型,請參閱「 部署合作夥伴模型並提出預測要求 」。

GLM 模型適用地區

GLM 模型適用於下列區域:

型號 區域
GLM 4.7
  • global
    • 最大輸出:128,000
    • 脈絡長度:200,000
GLM 5
  • global
    • 最大輸出:128,000
    • 脈絡長度:200,000

後續步驟

瞭解如何呼叫開放模型 API