Vertex AI の GLM モデルは、API としてフルマネージド モデルとサーバーレス モデルを提供します。Vertex AI で GLM モデルを使用するには、Vertex AI API エンドポイントにリクエストを直接送信します。GLM モデルはマネージド API を使用するため、インフラストラクチャをプロビジョニングしたり、管理する必要はありません。
レスポンスをストリーミングして、エンドユーザーのレイテンシを軽減できます。回答をストリーミングする際には、サーバー送信イベント(SSE)を使用して回答を段階的にストリーミングします。
GLM 4.7
GLM 4.7 は、コアまたはバイブ コーディング、ツール使用、複雑な推論用に設計された GLM のモデルです。
GLM 4.7 モデルカードに移動GLM 5
GLM 5 は、複雑なシステム エンジニアリングと長期的なエージェント タスクを対象とした GLM のモデルです。
GLM 5 モデルカードに移動GLM モデルを使用する
マネージド モデルの場合は、curl コマンドを使用して、次のモデル名を使用して Vertex AI エンドポイントにリクエストを送信できます。
- GLM 4.7 の場合は、
glm-4.7-maasを使用します。 - GLM 5 の場合は、
glm-5-maasを使用します。
GLM モデルにストリーミング呼び出しと非ストリーミング呼び出しを行う方法については、オープンモデル API を呼び出すをご覧ください。
セルフデプロイされた Vertex AI モデルを使用するには:
- Model Garden コンソールに移動します。
- 関連する Vertex AI モデルを見つけます。
- [有効にする] をクリックし、表示されたフォームに記入して必要な商用利用ライセンスを取得します。
パートナー モデルのデプロイと使用の詳細については、 パートナー モデルをデプロイして予測リクエストを行う をご覧ください。
GLM モデルのリージョン可用性
GLM モデルは次のリージョンで利用できます。
| モデル | リージョン |
|---|---|
| GLM 4.7 |
|
| GLM 5 |
|
次のステップ
オープンモデル API を呼び出す方法を確認する。