このガイドでは、Cloud Run で Agent2Agent(A2A)エージェントをホストする概要について説明します。
A2A のコンセプトの概要については、A2A の主なコンセプトをご覧ください。
AI エージェントと A2A プロトコルの関係
AI エージェントは、環境を認識し、意思決定を行い、特定の目標を達成するために自律的なアクションを実行できるソフトウェア プログラムです。これらのエージェントはますます高度化しており、推論、計画、自然言語インタラクションなどの複雑なタスクに大規模言語モデル(LLM)を活用することが多くなっています。
より専門的な AI エージェントが開発されるにつれて、それらが通信して連携する必要性が不可欠になります。Agent2Agent(A2A)プロトコルは、異なるフレームワーク、異なるベンダーを使用して構築された AI エージェントや、別々のサーバーで実行されている AI エージェント間でも、シームレスで安全な通信と相互運用性を実現するように設計されたオープン スタンダードです。A2A を使用すると、エージェントは内部状態やロジックを公開することなく、ピアとして連携できます。
次の図は、A2A クライアント(ユーザーまたはエージェント)と A2A エージェントがやり取りする、A2A エージェント システムのアーキテクチャを示しています。
A2A エージェントの中核は、Cloud Run などのサービスおよびオーケストレーション レイヤです。このレイヤは、Gemini や Vertex AI などの AI モデル、AlloyDB や A2A TaskStore などのメモリ ストレージ、API を介した外部ツールとのインタラクションを管理します。クライアントは、「エージェント カードを取得」や「メッセージを送信」などのリクエストを送信してエージェントとやり取りし、タスクの更新を受け取ります。
A2A リクエストのライフサイクルについては、A2A リクエストのライフサイクルのセクションをご覧ください。
次のステップ
- 独自の A2A エージェントをデプロイする実際の手順については、Cloud Run で A2A エージェントをビルドしてデプロイするをご覧ください。