Vertex AI の DeepSeek モデルは、API としてフルマネージド モデルとサーバーレス モデルを提供します。Vertex AI で DeepSeek モデルを使用するには、Vertex AI API エンドポイントにリクエストを直接送信します。DeepSeek モデルはマネージド API を使用します。インフラストラクチャをプロビジョニングしたり、管理したりする必要はありません。
レスポンスをストリーミングして、エンドユーザーのレイテンシを軽減できます。回答をストリーミングする際には、サーバー送信イベント(SSE)を使用して回答を段階的にストリーミングします。
使用可能な DeepSeek モデル
Vertex AI で使用できる DeepSeek のモデルは次のとおりです。DeepSeek モデルにアクセスするには、Model Garden のモデルカードに移動します。
DeepSeek-V3.1
DeepSeek-V3.1 は、思考モードと非思考モードの両方をサポートするハイブリッド モデルです。このアップグレードでは、以前のバージョンと比較して、ハイブリッド思考モード、ツールの呼び出し、思考効率が改善されています。
DeepSeek R1(0528)
DeepSeek R1(0528)は、DeepSeek R1 モデルの最新バージョンです。DeepSeek-R1 と比較して、推論の深さと推論機能が大幅に向上しています。DeepSeek R1(0528)は、クリエイティブな文書作成、一般的な質問応答、編集、要約など、幅広いタスクに優れています。
考慮事項
- 本番環境に対応した安全性を確保するには、DeepSeek R1(0528)を Model Armor と統合します。これにより、LLM のプロンプトとレスポンスがさまざまなセキュリティと安全性のリスクについてスクリーニングされます。
DeepSeek モデルを使用する
curl コマンドを使用すると、次のモデル名を使用して Vertex AI エンドポイントにリクエストを送信できます。
- DeepSeek-V3.1 の場合は、
deepseek-v3.1-maas
を使用します。 - DeepSeek R1(0528)の場合は、
deepseek-r1-0528-maas
を使用します。
DeepSeek モデルにストリーミング呼び出しと非ストリーミング呼び出しを行う方法については、オープンモデル API を呼び出すをご覧ください。
DeepSeek モデルのリージョン可用性と割り当て
DeepSeek モデルの場合、モデルが使用可能なリージョンごとに割り当てが適用されます。割り当ては、1 分あたりのクエリ数(QPM)で指定されます。
モデル | リージョン | 割り当て | コンテキストの長さ |
---|---|---|---|
DeepSeek-V3.1 | |||
us-west2 |
|
163,840 | |
DeepSeek R1(0528) | |||
us-central1 |
|
163,840 |
Vertex AI の生成 AI の割り当てを引き上げる場合は、 Google Cloud コンソールで割り当ての引き上げをリクエストできます。割り当ての詳細については、Cloud Quotas の概要をご覧ください。
次のステップ
- オープンモデル API を呼び出す方法を確認する。