Model Garden は、Google と Google パートナーのモデルとアセットを検出、テスト、カスタマイズ、デプロイするのに役立つ AI/ML モデル ライブラリです。
Model Garden のメリット
AI モデルを使用する場合、Model Garden には次の利点があります。
- 利用可能なモデルはすべて 1 か所にまとめられています
- Model Garden は、さまざまなタイプのモデルに一貫したデプロイ パターンを提供します
- Model Garden には、モデルのチューニング、評価、サービングなど、Vertex AI の他の部分との組み込み統合が用意されています。
- 生成 AI モデルのサービングは難しい場合があります。Vertex AI は、モデルのデプロイとサービングを自動的に処理します。
モデルを探す
使用可能な Vertex AI とオープンソースの基盤、チューニング可能なモデル、タスク固有のモデルのリストについては、Google Cloud コンソールの [Model Garden] ページをご覧ください。
Model Garden で利用可能なモデルのカテゴリは次のとおりです。
カテゴリ | 説明 |
---|---|
基盤モデル | Vertex AI Studio、Vertex AI API、Vertex AI SDK for Python を使用して、特定のタスクに合わせてチューニングまたはカスタマイズできる事前トレーニング済みのマルチタスクの大規模モデル。 |
ファインチューニング可能なモデル | カスタムのノートブックまたはパイプラインを使用してファインチューニングできるモデルです。 |
タスク固有のソリューション | これらの構築済みモデルのほとんどは直ちに使用を開始できます。多くモデルは、独自のデータを使用してカスタマイズできます。 |
[フィルタ] ペインでモデルをフィルタするには、次のように指定します。
- タスク: モデルに実行させるタスクをクリックします。
- モデル コレクション: クリックして、Google、パートナー、またはユーザーが管理するモデルを選択します。
- プロバイダ: モデルのプロバイダをクリックします。
- 特徴: モデルに必要な特徴をクリックします。
各モデルの詳細を確認するには、モデルカードをクリックします。
Model Garden で利用可能なモデルのリストについては、Model Garden で利用可能なモデルをご覧ください。
モデルのセキュリティ スキャン
Google は、提供しているサービング コンテナとチューニング コンテナを徹底的にテストし、ベンチマークを実施しています。アクティブな脆弱性スキャンは、コンテナ アーティファクトにも適用されます。
注目のパートナーのサードパーティ モデルには、真正性を確認するため、モデル チェックポイント スキャンを実施しています。HuggingFace Hub のサードパーティ モデルは、HuggingFace とそのサードパーティ スキャナによって直接スキャンされ、マルウェア、pickle ファイル、Keras Lambda レイヤ、シークレットの有無が確認されます。これらのスキャンで安全でないと判断されたモデルには、HuggingFace によってフラグが設定され、Model Garden でのデプロイがブロックされます。不審と見なされるモデルや、リモートコードを実行する可能性があるモデルは、Model Garden で示されますが、引き続きデプロイできます。不審なモデルは、Model Garden にデプロイする前に、徹底的にレビューすることをおすすめします。
料金
Model Garden のオープンソース モデルの場合、課金は Vertex AI での次の使用量に対して行われます。
- モデルのチューニング: 使用されたコンピューティング リソースに対して、カスタム トレーニングと同じレートで課金されます。カスタム トレーニングの料金をご覧ください。
- モデルのデプロイ: モデルをエンドポイントにデプロイするために使用されたコンピューティング リソースに対して課金されます。予測の料金をご覧ください。
- Colab Enterprise: Colab Enterprise の料金をご覧ください。
特定のモデルへのアクセスを制御する
Model Garden 組織のポリシーを組織、フォルダ、またはプロジェクト レベルで設定して、Model Garden の特定のモデルへのアクセスを制御できます。たとえば、精査された特定のモデルへのアクセスを許可し、他のモデルへのアクセスを拒否できます。
Model Garden の詳細
Model Garden のモデルで実行できるデプロイ オプションとカスタマイズの詳細については、次のセクションのリソースをご覧ください。チュートリアル、リファレンス、ノートブック、YouTube 動画へのリンクが含まれています。
デプロイして提供する
デプロイのカスタマイズと高度なサービング機能の詳細を確認する。
- Python SDK、CLI、REST API、またはコンソールを使用してオープンソース モデルをデプロイしてサービングする
- Model Garden で Gemma 3 をデプロイしてファインチューニングする YouTube 動画
- Gemma のデプロイと予測の実行
- Cloud TPU で Hex-LLM コンテナを使用してオープンモデルをサービングする
- Hex-LLM を使用して Llama モデルをデプロイするチュートリアル ノートブック
- Hex-LLM または vLLM で接頭辞のキャッシュ保存と投機的デコーディングを使用するチュートリアル ノートブック
- vLLM を使用して、Cloud GPU でテキストのみとマルチモーダルの両方の言語モデルのサービスを提供します
- 画像と動画の生成に xDiT GPU サービング コンテナを使用する
- Medium で PyTorch 推論チュートリアル用の Hugging Face DLC を使用して複数の LoRA アダプタで Gemma 2 をサービングする
- PyTorch 推論用に HuggingFace DLC を使用する画像キャプションに、カスタム ハンドラを使用して PaliGemma をサービングする方法(LinkedIn のチュートリアル)
- Spot VM または Compute Engine 予約を使用するモデルをデプロイして提供するチュートリアル ノートブック
- HuggingFace モデルをデプロイしてサービングする
コンテナのコンプライアンス
Model Garden には、モデル サービング用の次の FedRAMP High 準拠コンテナが用意されています。
チューニング
特定のユースケースに合わせてレスポンスを調整するためのモデルのチューニングについて学習する。
- Workbench のファインチューニングのチュートリアル ノートブック
- 「ファインチューニングと評価」チュートリアル ノートブック
- Model Garden で Gemma 3 をデプロイしてファインチューニングする YouTube 動画
評価
Vertex AI を使用してモデルのレスポンスを評価する方法の詳細