エージェント AI のユースケース: 異なるエンタープライズ システムへのアクセスをオーケストレートする

このドキュメントでは、異種エンタープライズ システムとのインタラクションをオーケストレートするエージェント AI システムのハイレベル アーキテクチャについて説明します。オーケストレーター エージェントは、複雑なプロセスを自動化し、最新の会話型インターフェースを通じて複数のエンタープライズ システムへのアクセスを統合します。これらのシステムは、商用のサードパーティ製アプリケーションまたは独自の内部システムである可能性があります。この設計アプローチにより、ポイントツーポイントのシステム統合が不要になるため、オペレーターはコンテキストの切り替え(スウィベルチェア処理)を頻繁に行う必要がなくなります。

このドキュメントは、クラウドでエージェント AI アプリケーションを構築して管理するアーキテクト、デベロッパー、管理者を対象としています。このドキュメントは、エージェント AI の基礎知識があることを前提としています。

アーキテクチャ

次の図は、オーケストレーター エージェントが AI を使用して、複数のチャネルからのクライアント インタラクションを適切なバックエンド システムに転送する多層アーキテクチャを示しています。

異なるエンタープライズ システムへのアクセスをオーケストレートするエージェント AI アプリケーションのアーキテクチャ。 さまざまなエンタープライズ システムへのアクセスをオーケストレートするエージェント AI アプリケーションのアーキテクチャ。

アーキテクチャのコンポーネントは、次のレイヤに整理されています。

コンポーネント
インタラクション チャネル

このアーキテクチャ例では、クライアントは次の複数のチャネルを介してエージェント AI システムとやり取りします。

  • 安全な REST API を介してエージェントと通信し、人間によるループ処理をサポートするウェブ アプリケーションなどのカスタム フロントエンド。
  • Gemini Enterprise のアドホック チャット インターフェース。エージェントを安全なツールとして呼び出し、ユーザーが自然言語を使用して複雑なバックエンド システムとやり取りできるようにします。
  • ビジネス イベントを Pub/Sub トピックにパブリッシュして、システム間の自動化ワークフローを開始する外部アプリケーション。
エージェント コア

アーキテクチャのコア コンポーネントは、エージェント開発キット(ADK)を使用して構築され、Cloud Run にデプロイされるオーケストレーター エージェントです。オーケストレーターはマルチエージェント システムを管理します。このサーバーレス プラットフォームは、エージェントの REST API に Identity and Access Management(IAM)を使用して、スケーラビリティとアクセス制御を提供します。

マルチステップ タスク間で状態を維持するために、エージェントは組み込みの ADK サポートを使用して、Vertex AI Session Service または Cloud Storage に状態データを永続化します。

バックエンド システムとの標準化された統合

エージェントとバックエンド システム間の通信には、Cloud Run にデプロイされた Model Context Protocol(MCP)サーバーが使用されます。

  • データベース向け MCP ツールボックスは、Cloud SQL などのデータベースにアクセスするための安全なツールセットをすぐに使用できる状態で提供します。
  • カスタム MCP サーバーは、バックエンド アプリケーションへのアクセスを提供します。

各 MCP サーバーは、特定のバックエンド システムの API を標準化されたツールセットとして公開します。MCP サーバーは、エージェントをバックエンド システムから分離する破損防止レイヤを形成します。このアプローチは、エージェントとバックエンド システムの密結合を回避するのに役立ちます。これにより、エージェントのロジックが簡素化され、エージェントとは別にバックエンド システムをモダナイズできます。

バックエンド システム

このアーキテクチャ例では、AI エージェントは次のバックエンド システムへのアクセスを調整します。

  • Cloud SQL の運用データベース。
  • Compute Engine VM にデプロイされたアプリケーション。
  • Google Cloudの外部で実行されるアプリケーション。

使用するプロダクト

このアーキテクチャ例では、次の Google Cloud プロダクトを使用します。

  • Vertex AI: ML モデルと AI アプリケーションのトレーニングとデプロイを行い、AI を活用したアプリケーションで使用する LLM をカスタマイズできる ML プラットフォーム。
  • Cloud Run: Google のスケーラブルなインフラストラクチャ上でコンテナを直接実行できるマネージド コンピューティング プラットフォーム。
  • Pub/Sub: メッセージを処理するサービスとメッセージを生成するサービスを切り離す、非同期でスケーラブルなメッセージング サービス。
  • Gemini Enterprise: 企業内で AI エージェントをデプロイして管理するためのフルマネージドの安全なプラットフォーム。
  • Gemini: Google が開発したマルチモーダル AI モデルのファミリー。
  • Cloud Storage: 低コストで無制限のオブジェクト ストア。さまざまなデータ型に対応しています。データには Google Cloudの内部および外部からアクセスでき、冗長性を確保するために複数のロケーションに複製されます。
  • Cloud SQL: Google Cloud上の MySQL、PostgreSQL、SQL Server データベースのプロビジョニング、運用、管理を支援するフルマネージド リレーショナル データベース サービス。

ユースケース

このアーキテクチャは、次のユースケースに役立ちます。

  • 異なる外部アプリケーションと内部アプリケーション間のスウィベルチェア処理を自動化します。
  • 大規模な移行を行わずに、複数のレガシー システムの統合インターフェースを作成します。
  • 既存のビジネス プロセスにインテリジェントな会話機能を組み込みます。
  • イベント ドリブン機能を使用して、アプリケーションを段階的にモダナイズします。

このアーキテクチャには次のメリットがあります。

  • 生産性: 反復的なタスクを自動化してヒューマンエラーを減らし、チームが付加価値の高いタスクに集中できるようにします。
  • スケーラビリティ: イベント ドリブン アプローチを使用して、サービスを個別に開発、デプロイ、スケーリングします。
  • ユーザー エクスペリエンスの向上: 最新の柔軟なインターフェースを構築して、複雑なビジネス プロセスを統合します。
  • 将来を見据えた統合: MCP サーバーを使用してバックエンド システムとの統合を標準化し、バックエンド システムを個別に置き換えてアップグレードできるようにします。

設計上の考慮事項

このアーキテクチャを本番環境に実装する場合は、次の推奨事項を検討してください。

  • セキュリティ: Cloud Run サービスには、最小権限の原則に基づく権限を持つ専用の IAM サービス アカウントを使用します。Cloud Run 上り(内向き)制御を構成して、認証済みの呼び出し元にアクセスを制限することで、エージェントの API を保護します。
  • オブザーバビリティ: 分散システムでは、トラブルシューティングにロギングとトレースが不可欠です。エージェント ワークフロー全体を可視化するには、構造化ログを Cloud Logging に書き込み、トレースを Cloud Trace に出力するようにサービスを計測します。
  • パフォーマンス: Cloud Run は需要に基づいて自動的にスケーリングし、負荷がない場合はゼロにスケーリングします。レイテンシの影響を受けやすいアプリケーションの場合は、最小インスタンス数を構成することで、コールド スタートを最小限に抑えることができます。
  • デプロイの自動化: Terraform などの Infrastructure as Code(IaC)ツールを使用して、リソースのプロビジョニングと管理を自動化します。IaC は、開発、ステージング、本番環境全体で、繰り返し可能で監査可能なデプロイを保証するのに役立ちます。
  • ガバナンス: App Design Center を使用して、アプリケーションのインフラストラクチャの設計とデプロイを効率化します。App Design Center を使用して、組織のガバナンス ルールとベスト プラクティスを組み込んだテンプレートを定義できます。

次のステップ

寄稿者

著者: Casey West | アーキテクチャ アドボケイト、 Google Cloud

その他の寄稿者: