GLM モデル

Vertex AI の GLM モデルは、API としてフルマネージド モデルとサーバーレス モデルを提供します。Vertex AI で GLM モデルを使用するには、Vertex AI API エンドポイントにリクエストを直接送信します。GLM モデルはマネージド API を使用するため、インフラストラクチャをプロビジョニングしたり、管理する必要はありません。

レスポンスをストリーミングして、エンドユーザーのレイテンシを軽減できます。回答をストリーミングする際には、サーバー送信イベント(SSE)を使用して回答を段階的にストリーミングします。

GLM 4.7

GLM 4.7 は、コアまたはバイブ コーディング、ツール使用、複雑な推論用に設計された GLM のモデルです。

GLM 4.7 モデルカードに移動

GLM 5

GLM 5 は、複雑なシステム エンジニアリングと長期的なエージェント タスクを対象とした GLM のモデルです。

GLM 5 モデルカードに移動

GLM モデルを使用する

マネージド モデルの場合は、curl コマンドを使用して、次のモデル名を使用して Vertex AI エンドポイントにリクエストを送信できます。

  • GLM 4.7 の場合は、glm-4.7-maas を使用します。
  • GLM 5 の場合は、glm-5-maas を使用します。

GLM モデルにストリーミング呼び出しと非ストリーミング呼び出しを行う方法については、オープンモデル API を呼び出すをご覧ください。

セルフデプロイされた Vertex AI モデルを使用するには:

  1. Model Garden コンソールに移動します。
  2. 関連する Vertex AI モデルを見つけます。
  3. [有効にする] をクリックし、表示されたフォームに記入して必要な商用利用ライセンスを取得します。

パートナー モデルのデプロイと使用の詳細については、 パートナー モデルをデプロイして予測リクエストを行う をご覧ください。

GLM モデルのリージョン可用性

GLM モデルは次のリージョンで利用できます。

モデル リージョン
GLM 4.7
  • global
    • 最大出力: 128,000
    • コンテキストの長さ: 200,000
GLM 5
  • global
    • 最大出力: 128,000
    • コンテキストの長さ: 200,000

次のステップ

オープンモデル API を呼び出す方法を確認する。