Model Garden では、一部のパートナー モデルをセルフデプロイできます(プレビュー)。セルフデプロイ モデルはサーバーレスではありません。使用する前に、Vertex AI にデプロイする必要があります。これらのモデルは、Google Cloud プロジェクトと VPC ネットワーク内に安全にデプロイされます。セルフデプロイ モデルの詳細については、セルフデプロイ モデルのドキュメントをご覧ください。
セルフデプロイ可能なパートナー モデルを購入する
Vertex AI にセルフデプロイ可能なパートナー モデルをデプロイするには、まず Google Cloud Marketplace で購入する必要があります。セルフデプロイ パートナー モデルを購入するには、次の操作を行います。
Model Garden に移動します。
[モデル コレクション] で、[セルフデプロイ可能なパートナー モデル] をクリックして、モデルのリストをフィルタします。
購入するパートナー モデルのモデルカードをクリックします。
[営業チームにお問い合わせ] をクリックします。
フォームに必要事項を入力して、リクエストを送信します。
これらの手順を完了すると、購入手続きを完了するために Google Cloud 営業担当者から連絡があります。
モデルのデプロイ
セルフデプロイ可能なパートナー モデルを購入したら、ワンクリック デプロイを使用して Vertex AI エンドポイントにデプロイできます。このプロセスでは、必要な設定を事前に構成することで、デプロイを簡素化します。
ワンクリック デプロイは、 Google Cloud コンソールまたは Vertex AI SDK for Python を使用して実行できます。
コンソール
Google Cloud コンソールでパートナー モデルをデプロイする手順は次のとおりです。
Model Garden に移動します。
使用するパートナー モデルのモデルカードを見つけてクリックします。
[モデルをデプロイ] をクリックします。
プロンプトに従ってデプロイ設定を構成します。
[デプロイ] をクリックします。
Python
次のサンプルは、Vertex AI SDK for Python を使用してパートナー モデルをデプロイする方法を示しています。プレースホルダの値を具体的な情報に置き換えます。
import vertexai
from vertexai import model_garden
vertexai.init(project="PROJECT_ID", location="LOCATION")
# Replace with the actual partner model ID from Model Garden
model = model_garden.OpenModel("PARTNER_MODEL_ID")
endpoint = model.deploy(
accept_eula=True,
machine_type="MACHINE_TYPE", # e.g., "a3-ultragpu-8g"
accelerator_type="ACCELERATOR_TYPE", # e.g., "NVIDIA_H200_141GB"
accelerator_count=ACCELERATOR_COUNT, # e.g., 8
serving_container_image_uri="SERVING_CONTAINER_IMAGE_URI",
endpoint_display_name="ENDPOINT_DISPLAY_NAME",
model_display_name="MODEL_DISPLAY_NAME",
use_dedicated_endpoint=True,
)
print(f"Model deployed to endpoint: {endpoint.resource_name}")
次のステップ
- オープンモデルのサービング オプションを選択する
- Model as a Service(MaaS)を使用してオープンモデルを使用する
- ビルド済みコンテナを使用してオープンモデルをデプロイする
- カスタム vLLM コンテナを使用してオープンモデルをデプロイする