エージェント型 AI のユースケース: セキュリティ運用ワークフローをオーケストレートする

Last reviewed 2026-04-08 UTC

このドキュメントでは、セキュリティ オペレーション センター(SOC)で複雑な調査とトリアージ プロセスをオーケストレートするマルチエージェント AI システムのハイレベル アーキテクチャについて説明します。エージェント システムは、セキュリティ情報およびイベント管理(SIEM)システム、脅威インテリジェンス フィード、クラウド セキュリティ ポスチャー管理(CSPM)プラットフォーム、エンドポイント検出対応(EDR)ソリューションなど、異なるセキュリティ システム間でワークフローを調整します。エージェント システムは次のアクションを実行できます。

  • Google Security Operations から重大なアラートを検索します。
  • Google Threat Intelligence を使用してアラートを拡充する。
  • サードパーティの CSPM ツールからアセットの設定ミスを検索します。
  • 人間参加型の承認を実装します。
  • サードパーティの EDR ツールから詳細なエンドポイント テレメトリーとプロセス実行履歴を取得して、侵害されたエンドポイントや疑わしいエンドポイントを調査します。

このアーキテクチャは、コンテキストの切り替えを減らし、オペレーターが単一のインターフェースを使用して複雑なマルチステージ調査を実行できるようにすることで、オペレーターの効率を高めます。

このドキュメントは、エージェント型 AI アプリケーションの設計、構築、実装を担当し、それらのアプリケーションをクラウド環境の既存のセキュリティ システムと統合するアーキテクトとデベロッパーを対象としています。また、セキュリティ オペレーションを監督し、プロアクティブな防御に脅威インテリジェンスを使用し、インシデントの検出、調査、対応のための堅牢な SecOps ワークフローを管理する SOC アナリストやシステム管理者を対象としています。このドキュメントでは、マルチエージェント システム、エージェント型ツール、エージェント型オーケストレーションなど、エージェント型 AI のコンセプトに関する基本的な知識があることを前提としています。また、脅威インテリジェンスのユースケース、セキュリティ運用ワークフロー、一般的なセキュリティ ツールについても理解していることを前提としています。脅威インテリジェンスと一般的なセキュリティ ツールについては、脅威インテリジェンスのユースケースと例をご覧ください。

アーキテクチャ

要件に応じて、次のデプロイモデルを選択できます。

  • Cloud Run デプロイ: 基盤となるインフラストラクチャを管理することなく、エージェント アプリケーション全体、個々のコンポーネント、カスタムツールをスケーラブルな HTTP エンドポイントとしてデプロイできるフルマネージドのサーバーレス プラットフォーム。
  • Gemini Enterprise を使用した Vertex AI Agent Engine のデプロイ: 運用上のオーバーヘッドを最小限に抑えてエージェント アプリケーションをデプロイ、運用、スケーリングできるフルマネージドのオピニオン ランタイム。

エージェント ランタイムの選択方法については、エージェント型 AI アーキテクチャのコンポーネントを選択するをご覧ください。

次のタブには、Cloud Run デプロイと Gemini Enterprise を使用した Vertex AI Agent Engine デプロイを示すアーキテクチャ図が用意されています。

Cloud Run

次の図は、Cloud Run にデプロイされた SOC エージェント システムの詳細なアーキテクチャを示しています。

Cloud Run にデプロイされる SOC エージェント システムのアーキテクチャの詳細。

このアーキテクチャには、次のコンポーネントが示されています。

コンポーネント 説明
Cloud Load Balancing アプリケーション ロードバランサは、セキュリティ アナリストからの受信推論リクエストをエージェント システムに転送します。
Google Cloud Armor 構成されたウェブ アプリケーション ファイアウォール(WAF)ルールに基づいてセキュリティ ポリシーを適用します。
Identity-Aware Proxy(IAP) ゼロトラスト セキュリティ モデルを適用し、ユーザー ID を検証します。
Model Armor Model Armor を使用すると、プロンプト、ツール インタラクション、レスポンスを検査してサニタイズできます。基盤となる AI モデルに柔軟なセキュリティ管理を提供します。Cloud Run で実行されるカスタム エージェントの場合は、Model Armor API を使用して Model Armor を統合します。
エージェントの構成 Agent Development Kit(ADK)は、エージェントの構築と、サーバーレス Cloud Run サービスとしてのデプロイに役立つエージェント開発フレームワークです。このエージェント システムの内部アーキテクチャの詳細については、このドキュメントの後半のエージェント システムのアーキテクチャをご覧ください。
AI モデル このアーキテクチャのエージェントは、推論を行うために Vertex AI の AI モデルを使用します。
MCP サーバー Model Context Protocol(MCP)は、ツールへのアクセスを容易にし、エージェントとツールの間のやり取りを標準化します。エージェント システムは、次の MCP サーバーを使用します。

使用するプロダクト

このアーキテクチャ例では、次の Google Cloud プロダクトとツールを使用します。

  • Cloud Run: Google のスケーラブルなインフラストラクチャ上でコンテナを直接実行できるマネージド コンピューティング プラットフォーム。
  • Cloud Load Balancing: 高パフォーマンスでスケーラブルなグローバル ロードバランサとリージョン ロードバランサのポートフォリオ。
  • Google Cloud Armor: ウェブ アプリケーション ファイアウォール(WAF)ルールを提供し、DDoS 攻撃やアプリケーション攻撃から保護するネットワーク セキュリティ サービス。
  • Identity-Aware Proxy(IAP): アプリケーションと仮想マシンにゼロトラスト アクセスモデルを適用できるサービス。
  • Google Security Operations: セキュリティ チームがサイバー脅威の検出、調査、対応を行えるようにするセキュリティ運用プラットフォーム。
  • Google Threat Intelligence: セキュリティの脅威の特定、分析、軽減に包括的かつプロアクティブなアプローチを提供するセキュリティ ソリューション。
  • Google Cloud MCP サーバー: Model Context Protocol(MCP)を実装して、AI アプリケーションが Google と Google Cloud のプロダクトとサービスにアクセスできるようにする、Google が管理するリモート サービス。
  • Gemini: Google が開発したマルチモーダル AI モデルのファミリー。
  • Vertex AI: ML モデルと AI アプリケーションのトレーニングとデプロイを行い、AI を活用したアプリケーションで使用する LLM をカスタマイズできる ML プラットフォーム。
  • Agent Development Kit(ADK): AI エージェントの開発、テスト、デプロイを行うためのツールとライブラリのセット。
  • Model Armor: プロンプト インジェクション、センシティブ データの漏洩、有害なコンテンツから生成 AI とエージェント型 AI のリソースを保護するサービス。

Gemini Enterprise を使用した Vertex AI Agent Engine

次の図は、Gemini Enterprise を使用して Vertex AI Agent Engine にデプロイされた SOC エージェント型 AI システムの詳細なアーキテクチャを示しています。

Gemini Enterprise を使用して Vertex AI Agent Engine にデプロイされる SOC エージェント AI システムのアーキテクチャの詳細。

アーキテクチャ図には、次のコンポーネントが示されています。

コンポーネント 説明
Gemini Enterprise ユーザーは、Gemini Enterprise が提供するチャット アシスタントを介してエージェント システムとやり取りします。
エージェントの構成 Agent Development Kit(ADK)は、カスタム エージェントの作成、Vertex AI Agent Engine へのエージェントのデプロイ、Gemini Enterprise へのエージェントの登録に役立つエージェント開発フレームワークです。このエージェント システムの内部アーキテクチャの詳細については、このドキュメントの後半のエージェント システムのアーキテクチャをご覧ください。
AI モデル このアーキテクチャのエージェントは、Vertex AI Model Garden の AI モデルを使用して推論を実行します。
Model Armor エンタープライズの安全性とコンプライアンスのポリシーを適用するために、Model Armor は Google Cloud サービスと直接統合され、ユーザー プロンプトとモデル レスポンスのインライン検査とサニタイズを行います。Gemini Enterprise と Vertex AI との組み込み統合により、Model Armor はユーザーとマネージド エージェント間のやり取りを自動的にスクリーニングします。詳細については、 Google Cloud サービスとの Model Armor の統合をご覧ください。
MCP サーバー Model Context Protocol(MCP)は、ツールへのアクセスを容易にし、エージェントとツール間のやり取りを標準化します。エージェント システムは、次の MCP サーバーを使用します。
  • Google SecOps MCP サーバー: Google SecOps SIEM Google SecOps SOAR のデータ(イベント、エンティティ、未加工のログ、ケースの詳細など)へのアクセスを提供する Google マネージド MCP サーバー。
  • Google Threat Intelligence MCP サーバー: Google Threat Intelligence へのアクセスを提供するローカル MCP サーバー。Google Threat Intelligence は、内部環境アラートとグローバルな攻撃者データを関連付け、SOC ワークフロー内の既知の悪意のある指標の特定を効率化します。
  • サードパーティの MCP サーバー: サードパーティ ベンダーが管理し、外部のセキュリティ ツールとやり取りできるコネクタ。

使用するプロダクト

このアーキテクチャ例では、次の Google Cloud プロダクトとツールを使用します。

  • Vertex AI Agent Engine: 本番環境で AI エージェントを実行、管理、スケーリングできるプラットフォーム。
  • Gemini Enterprise: 企業内で AI エージェントをデプロイして管理するためのフルマネージドの安全なプラットフォーム。
  • Google Security Operations: セキュリティ チームがサイバー脅威の検出、調査、対応を行えるようにするセキュリティ運用プラットフォーム。
  • Google Threat Intelligence: セキュリティの脅威の特定、分析、軽減に包括的かつプロアクティブなアプローチを提供するセキュリティ ソリューション。
  • Google Cloud MCP サーバー: Model Context Protocol(MCP)を実装して、AI アプリケーションが Google と Google Cloud のプロダクトとサービスにアクセスできるようにする、Google が管理するリモート サービス。
  • Gemini: Google が開発したマルチモーダル AI モデルのファミリー。
  • Vertex AI: ML モデルと AI アプリケーションのトレーニングとデプロイを行い、AI を活用したアプリケーションで使用する LLM をカスタマイズできる ML プラットフォーム。
  • Agent Development Kit(ADK): AI エージェントの開発、テスト、デプロイを行うためのツールとライブラリのセット。
  • Model Armor: プロンプト インジェクション、センシティブ データの漏洩、有害なコンテンツから生成 AI とエージェント型 AI のリソースを保護するサービス。

エージェント システムのアーキテクチャ

このセクションでは、前述の Cloud Run または Gemini Enterprise のデプロイ用のカスタム SOC エージェント システムのアーキテクチャについて説明します。複雑なセキュリティ ワークフローをオーケストレートするために、エージェントは階層型タスク分解パターンを使用します。選択したデプロイ方法に関係なく、エージェントの構成は一貫しています。

次の図は、エージェント システム アーキテクチャの詳細を示しています。 エージェントベースの SecOps ワークフローの詳細なエージェント AI システム アーキテクチャ。

このアーキテクチャには、次のコンポーネントが示されています。

コンポーネント 説明
アプリケーション ユーザーとやり取りするフロントエンド アプリケーション(チャット インターフェースなど)。Cloud Run または Vertex AI Agent Engine と Gemini Enterprise を使用してアプリケーションをデプロイできます。
エージェント

このアーキテクチャでは、次のエージェントを使用します。

  • ルート エージェント: ユーザーからのリクエストを受信する コーディネーター エージェント。ルート エージェントはユーザーのリクエストを解釈し、リクエストの解決を試みます。タスクに特殊なツールが必要な場合、ルートエージェントはリクエストを適切な特殊エージェントに委任します。
  • 専門エージェント: ルート エージェントは、次の専門エージェントを呼び出します。
    • Tier 1 アナリスト: アラートの詳細を取得し、影響を受けるアセットを特定し、Google SecOps と関連するテレメトリー ソースをクエリするときにユーザー コンテキストを抽出します。
    • サイバー脅威インテリジェンス(CTI)研究者: 特定のアラートに関連する脅威アクターの戦術を調査します。このエージェントは、脅威インテリジェンス プラットフォームにクエリを実行して、内部の 侵害インジケーター(IOC)を既知の脅威アクター グループおよび文書化された 戦術、手法、手順(TTP)と関連付けることで、アクティビティのリスク評価を行います。

エージェント システム アーキテクチャ図は、2 つの SOC ペルソナを使用するアーキテクチャの例を示しています。特定のユースケースに応じて、他の SOC ペルソナをデプロイしたり、独自のカスタム ペルソナを作成したりできます。セキュリティ運用をより堅牢にするのに役立つ SOC ペルソナのより広範なリストについては、SOC ペルソナをご覧ください。

RAG ナレッジ データベース このデータベースは、検索拡張生成(RAG)のグラウンディング ソースを提供します。このデータベースは、エージェントにインシデント対応計画AI ランブックを提供するために使用されます。AI ランブックは、エージェント スキルの形式の規定型ワークフローです。
アーティファクト サービス 調査レポートと証拠を Cloud Storage に保存するマネージド サービス。
メモリバンク カスタム メモリトピックを保存し、エージェントがセッション間で環境コンテキストと脅威コンテキストに関するコンテキストを維持できるようにする永続的な状態管理システム。
AI モデル このアーキテクチャのエージェントは、推論を行うために Vertex AI で最新の Gemini モデルを使用します。
MCP サーバー MCP サーバーは、ツールへのアクセスを容易にし、エージェントとツール間のやり取りを標準化します。エージェントとツールのペアごとに、MCP クライアントは MCP サーバーにリクエストを送信します。このサーバーを介して、エージェントはデータベース、ファイル システム、API などのツールにアクセスします。
エージェント ツール これらのツールを使用すると、エージェントは対応する AI ランブック、 インシデント対応計画、以前のレポート、内部ドキュメント、ハンドブックなどのグラウンディング データを取得できます。
ADK ADK は、エージェントの開発、テスト、デプロイを行うためのツールとフレームワークを提供します。ADK はエージェント作成の複雑さを抽象化し、AI デベロッパーはエージェントのロジックと機能に集中できます。

このアーキテクチャは、次のデータフローを示しています。

  1. セキュリティ アナリストが、コーディネーター エージェントである SOC マネージャーにリクエストを送信します。たとえば、アナリストがケース #37 の調査をリクエストします。
  2. Cloud Run または Gemini Enterprise にデプロイされたアプリケーションが、リクエストを SOC マネージャーに転送します。
  3. SOC マネージャーは Gemini を使用してユーザーのリクエストを解釈します。
  4. SOC マネージャーは、リクエストのコンテキストを収集するために次のタスクを実行します。
    1. RAG ナレッジ データベースにクエリを送信して、対応する AI ランブック、AI スキルの形式の規範的ワークフロー、インシデント対応計画を取得します。
    2. 以前のメモリを取得して、エージェント システムが同様のインシデントを分析したかどうかを特定します。
    3. Artifact Service で、リクエストに関連する既存のレポートまたは証拠を確認します。
  5. SOC マネージャーは、Gemini と取得したコンテキストを使用して、リクエストを一連のサブタスクに分解し、適切なツールを特定します。
  6. SOC マネージャーは、サブタスクを Tier 1 アナリストやサイバー脅威インテリジェンス(CTI)研究者などの専門のサブエージェントに動的に転送します。
  7. 各サブエージェントは、割り当てられたサブタスクを実行するために次のアクションを実行します。
    1. Gemini を使用してタスクの目標を解釈します。
    2. RAG ナレッジ データベース、メモリ、アーティファクトから関連するコンテキストを取得します。
    3. MCP サーバーを使用して、回答の根拠となる次の追加のコンテキストを収集します。
      • 過去のレポート、社内ドキュメント、プレイブックなどのナレッジ ドキュメント。
      • Google SecOps と Google Threat Intelligence のデータを使用するセキュリティ インテリジェンスとテレメトリー。
    4. Gemini と取得したコンテキストを使用して、検出結果を生成します。
    5. 調査結果を構造化された概要にまとめます。
    6. 中間レスポンスを SOC マネージャーに転送します。
  8. SOC マネージャーはサブエージェントから中間レスポンスを受け取り、AI ランブックの要件に照らして結果を評価します。
    1. 検出結果が評価基準を満たしていない場合、SOC マネージャーはユーザーのリクエストの分析を繰り返し、追加データを収集するためにサブタスクをサブエージェントに委任します。この反復ループの間、SOC マネージャーは以前のコンテキスト チェーンを保持し、後続のツール呼び出しとサブエージェント委任に情報を提供して補強します。SOC マネージャーは、検出結果が評価基準を満たすまでこのループを続けます。
    2. 検出結果が評価基準または終了条件(最大反復回数など)を満たしている場合、SOC マネージャーは次のアクションを実行します。
      1. Gemini を使用して、すべてのサブエージェントの検出結果を調査レポートに統合し、レポートを Artifact Service に保存します。
      2. Google SecOps MCP サーバーを使用して、結果をケースウォールに投稿します。
      3. 新しい思い出Vertex AI メモリバンク に保存します。
  9. SOC マネージャーは、アーティファクトのリンクとレポートの概要をセキュリティ アナリストに返送します。

使用するプロダクト

このドキュメントのエージェント システム アーキテクチャでは、次の Google Cloudプロダクトとツールを使用します。

  • Google Security Operations: セキュリティ チームがサイバー脅威の検出、調査、対応を行えるようにするセキュリティ運用プラットフォーム。
  • Google Threat Intelligence: セキュリティの脅威の特定、分析、軽減に包括的かつプロアクティブなアプローチを提供するセキュリティ ソリューション。
  • Google Cloud MCP サーバー: Model Context Protocol(MCP)を実装して、AI アプリケーションが Google と Google Cloud のプロダクトとサービスにアクセスできるようにする、Google が管理するリモート サービス。
  • Gemini: Google が開発したマルチモーダル AI モデルのファミリー。
  • Vertex AI: ML モデルと AI アプリケーションのトレーニングとデプロイを行い、AI を活用したアプリケーションで使用する LLM をカスタマイズできる ML プラットフォーム。
  • Agent Development Kit(ADK): AI エージェントの開発、テスト、デプロイを行うためのツールとライブラリのセット。
  • Model Armor: プロンプト インジェクション、センシティブ データの漏洩、有害なコンテンツから生成 AI とエージェント型 AI のリソースを保護するサービス。
  • メモリバンク: ユーザーとエージェントの会話に基づいて長期記憶を生成、絞り込み、管理、取得する永続ストレージ サービス。
  • Cloud Storage: 低コストで無制限のオブジェクト ストア。さまざまなデータ型に対応しています。データには Google Cloudの内部および外部からアクセスでき、冗長性を確保するために複数のロケーションに複製されます。

フレームワーク、エージェント ランタイム、ツール、メモリ、設計パターンなど、エージェント型 AI システムの代替コンポーネントを選択する方法については、エージェント AI アーキテクチャ コンポーネントを選択するをご覧ください。

設計上の考慮事項

このアーキテクチャを本番環境に実装する場合は、次の推奨事項を検討してください。

  • エージェント ツールのアクセス: トークンの消費を削減し、最小権限の原則を適用するには、必要に応じてさまざまなエージェントにツールのサブセットを提供します。
  • エージェントのスコープ設定: モデルの精度を向上させるには、各エージェントのランブックとシステム指示のスコープを設定します。
  • コンテキスト ウィンドウの管理: トークンの消費を最小限に抑えるため、プロンプトとツール出力を簡潔に設計します。RAG リポジトリを使用し、エージェント スキルを使用してコンテキストをプリロードし、大きなツール レスポンスを要約します。
  • プロンプトのキャッシュ保存: 入力トークンの費用を削減するため、システム指示、ペルソナ、ランブック、ツールスキーマなどの静的エージェント コンテンツをキャッシュに保存します。
  • モデルの選択: AI アプリケーション用に選択するモデルは、費用とパフォーマンスの両方に直接影響します。エージェントのロールとタスクの要件に応じて、エージェント システムでさまざまなモデルを選択します。複雑な推論とタスクの分解には、Gemini Pro などの思考モデルを使用します。小規模で直接的なタスクには、Gemini Flash などの高速で低コストのモデルを使用します。
  • MCP スキーマの互換性: AI モデルがツール定義を誤って解釈し、誤ったツール呼び出しを行うのを防ぐため、ツール スキーマをサニタイズします。JSON スキーマ $ref$defs の自己完結型コンストラクトを作成し、大文字の型文字列を正規化します。
  • 認証環境: 環境間でシームレスな認証を確保するには、開発認証戦略からの移行を管理するようにデプロイ パイプラインを構成します。たとえば、ローカル実行の アプリケーションのデフォルト認証情報(ADC)から、本番環境のホスト型リモート MCP サーバー用に Identity and Access Management(IAM)が管理するサービス アカウントに移行する必要がある場合があります。

デプロイ

カスタム SOC エージェントを提供するこのアーキテクチャのサンプル実装をデプロイするには、GitHub で入手できる Agentic SOC Gemini Enterprise コードサンプルを使用します。

次の順序でエージェントを反復処理することをおすすめします。

  1. ADK web を使用してローカルにデプロイする: プロトタイピングを加速し、エージェント ロジックを迅速に反復処理します。
  2. ローカル コンテナにデプロイする: 一貫性のある依存関係を持つポータブルで不変の環境を確保します。
  3. コンテナを Cloud Run または Vertex AI Agent Engine にデプロイする: 効果的なセキュリティ運用のためエージェントをスケーリングし、アプリケーションを開発環境から本番環境に移行します。

次のステップ

寄稿者

著者:

その他の寄稿者: