Vertex AI 上的 GLM 模型提供全代管的無伺服器模型,並以 API 形式提供。如要在 Vertex AI 上使用 GLM 模型,請直接將要求傳送至 Vertex AI API 端點。由於 GLM 模型使用代管 API,因此不需要佈建或管理基礎架構。
您可以串流回應,減少使用者對延遲的感受。串流回應會使用伺服器推送事件 (SSE) 逐步串流回應。
GLM 4.7
GLM 4.7 是 GLM 提供的模型,適用於核心或直覺式程式開發、工具操作和複雜推論。
前往 GLM 4.7 模型資訊卡GLM 5
GLM 5 是 GLM 提供的模型,適用於複雜的系統工程和長期代理工作。
前往 GLM 5 模型資訊卡使用 GLM 模型
如果是受管理模型,您可以使用 curl 指令,透過下列模型名稱將要求傳送至 Vertex AI 端點:
- 如果是 GLM 4.7,請使用
glm-4.7-maas - 如果是 GLM 5,請使用
glm-5-maas
如要瞭解如何對 GLM 模型發出串流和非串流呼叫,請參閱「呼叫開放模型 API」。
如要使用自行部署的 Vertex AI 模型,請按照下列步驟操作:
- 前往 Model Garden 控制台。
- 找出相關的 Vertex AI 模型。
- 按一下「啟用」並填寫表單,取得必要的商業用途授權。
如要進一步瞭解如何部署及使用合作夥伴模型,請參閱「 部署合作夥伴模型並提出預測要求 」。
GLM 模型適用地區
GLM 模型適用於下列區域:
| 型號 | 區域 |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
後續步驟
瞭解如何呼叫開放模型 API。