Vertex AI は、生成 AI と ML モデル、AI アプリケーションの構築、デプロイ、スケーリングのための統合されたオープン プラットフォームです。Model Garden にアクセスして、Google の基盤モデル(Gemini など)やパートナー モデル、オープンモデルなど、200 以上のモデルの厳選されたカタログと、基盤となる TPU / GPU インフラストラクチャを利用できます。Vertex AI は、最先端の生成 AI ワークフローと MLOps の AI 推論ワークフローをサポートしています。エンドツーエンドの MLOps ツールと、ガバナンス、セキュリティ、コンプライアンスのためのエンタープライズ グレードの制御機能を提供します。
Vertex AI の主な機能
Vertex AI には、生成 AI、AI 推論、ML ワークフローをサポートするツールとサービスが含まれています。
生成 AI 機能
Vertex AI は、プロダクション レディな生成 AI エージェントとアプリケーションの構築に使用できる、Google の高度な基盤モデルツールを含む包括的なツールセットを提供します。
プロンプト: Vertex AI Studio でプロンプト設計から始めます。Vertex AI Studio には、プロンプトの設計とモデルの管理を行うためのツールが含まれています。これらのツールを使用して、生成 AI アプリケーションのプロトタイプ作成、構築、デプロイを行うことができます。
モデル: Vertex AI の Model Garden は、Google、主要なサードパーティ パートナー(Anthropic の Claude など)、一般的なオープンソース オプション(Llama など)の 200 を超えるエンタープライズ対応モデルが選択できる一元化されたハブです。
このモデルの選択には、次のものが含まれます。
Google の基盤となる生成 AI モデル:
- Gemini: テキスト、画像、動画、音声のマルチモーダル機能。Gemini 3 Flash や Gemini 3 Pro(Nano Banana を搭載)などのモデルの思考機能。
- Vertex AI の Imagen: 画像を生成して編集します。
- Vertex AI の Veo: テキストと画像から動画を生成します。
パートナー モデルとオープンソース モデル: Anthropic の Claude、Mistral AI モデル、Llama などの優れた価格性能を備えた、厳選された最先端モデルにアクセスできます。これらのモデルは、フルマネージドの Model as a Service(MaaS)API として使用できます。
モデルのカスタマイズ: ビジネスに合わせてモデルを調整し、独自の AI アセットを作成します。これには、ハルシネーションを減らすために企業データや Google 検索でグラウンディングすることから、Gemini などのモデルの教師ありファインチューニング(SFT)やパラメータ エフィシエント ファインチューニング(PEFT)に Vertex AI Training を使用することまで、さまざまな方法があります。モデルのカスタマイズの詳細については、チューニングの概要をご覧ください。
生成 AI の評価: Vertex AI 生成 AI 評価機能を使用して、モデルとエージェントのパフォーマンスを客観的に評価して比較します。Model Armor などのランタイム防御機能をデプロイして、プロンプト インジェクションやデータ引き出しなどの新たな脅威をプロアクティブに検査して保護し、安全性とコンプライアンスを確保します。
エージェント ビルダー: Vertex AI Agent Builder は、AI エージェントの作成、管理、デプロイに役立つフルスタック エージェント変換システムです。オープンソースの Agent Development Kit(ADK)でエージェントを構築してオーケストレートし、マネージド サーバーレスの Vertex AI Agent Engine にデプロイして、本番環境で大規模に使用します。各エージェントには、セキュリティと明確な監査証跡のためにエージェント ID(Identity and Access Management プリンシパル)が割り当てられます。
外部情報へのアクセス: グラウンディングで信頼できるソースに接続し、関数呼び出しで外部 API とやり取りを行い、RAG でナレッジベースから情報を取得することで、モデルのレスポンスを強化します。
責任ある AI と安全性: 組み込みの安全機能を使用して、有害なコンテンツをブロックし、責任ある AI の使用を確保します。
Vertex AI の生成 AI の詳細については、Vertex AI の生成 AI に関するドキュメントをご覧ください。
AI 推論機能
Vertex AI は、ML ワークフローの各段階に対応するツールとサービスを提供します。
データ準備: データを収集、クリーニング、変換します。
- Vertex AI Workbench ノートブックを使用して、探索的データ分析(EDA)を実行します。
- データアクセス用に Cloud Storage と BigQuery を統合します。
- 大規模なデータ処理には Dataproc Serverless Spark を使用します。
モデルのトレーニング: ML モデルをトレーニングします。
- コードなしのトレーニングには AutoML を、完全な制御を行う場合はカスタム トレーニングを選択します。
- Vertex AI Experiments を使用して、トレーニング実行を管理および比較します。
- トレーニング済みモデルを Vertex AI Model Registry に登録します。
- Vertex AI Training には、サーバーレス トレーニングとトレーニング クラスタの両方が用意されています。
- Vertex AI サーバーレス トレーニングを使用して、フルマネージド環境でカスタム トレーニング コードをオンデマンドで実行します。[Vertex AI サーバーレス トレーニングの概要][serverless]をご覧ください。
- 専用の予約済みアクセラレータ クラスタで保証された容量を必要とする大規模なジョブには、Vertex AI トレーニング クラスタを使用します。Vertex AI トレーニング クラスタの概要をご覧ください。
- Ray on Vertex AI で、マネージド インタラクティブ クラスタ上のオープンソースの Ray フレームワークを使用して Python と ML のワークロードをスケーリングします。Ray on Vertex AI の概要をご覧ください。
- Vertex AI Vizier を使用して、複雑な ML モデルでモデルのハイパーパラメータをチューニングします。
モデルの評価とイテレーション: モデルのパフォーマンスを評価して改善します。
- モデル評価指標を使用してモデルを比較します。
- Vertex AI Pipelines ワークフロー内で評価を統合します。
モデルのサービング: モデルをデプロイして推論を取得します。
- ビルド済みコンテナまたはカスタム コンテナを使用して、オンライン推論用にデプロイします。
- 大規模なデータセットに対してバッチ推論を実行します。
- 効率的な TensorFlow サービングには、最適化された TensorFlow ランタイムを使用します。
- Vertex Explainable AI を使用してモデルの推論を理解します。
- Vertex AI Feature Store から特徴をサービングします。
- BigQuery ML でトレーニングされたモデルをデプロイします。
モデルのモニタリング: デプロイされたモデルのパフォーマンスを経時的に追跡します。
- Vertex AI Model Monitoring を使用して、トレーニング サービング スキューと推論ドリフトを検出します。
MLOps ツール
ML プロジェクトの自動化、管理、モニタリング
- Vertex AI Pipelines: 再利用可能なパイプラインとして ML ワークフローをオーケストレートして自動化します。
- Vertex AI Model Registry: バージョニングやデプロイなど、ML モデルのライフサイクルを管理します。
- Vertex AI サーバーレス トレーニング: フルマネージド環境でカスタム トレーニング コードをオンデマンドで実行します。
- Vertex AI Model Monitoring: デプロイされたモデルのデータスキューとドリフトをモニタリングして、パフォーマンスを維持します。
- Vertex AI Experiments: さまざまなモデル アーキテクチャとハイパーパラメータを追跡して分析します。
- Vertex AI Feature Store: モデルのトレーニングやリアルタイム予測を行うための特徴データを管理し、提供します。
- Vertex ML Metadata: ML アーティファクトのメタデータを追跡して管理します。
- Vertex AI トレーニング クラスタ: 専用の予約済みアクセラレータ クラスタで保証された容量を必要とする大規模なジョブをトレーニングします。
- Ray on Vertex AI: マネージド インタラクティブ クラスタ上のオープンソースの Ray フレームワークを使用して Python と ML のワークロードをスケーリングします。
次のステップ
- Vertex AI の生成 AI の詳細を確認する。
- Vertex AI の MLOps 機能について学習する。
- Vertex AI とのやり取りに使用できるインターフェースについて学習する。