In diesem Leitfaden finden Sie einen Überblick über das Hosting von Agent2Agent-Agents (A2A) in Cloud Run.
Eine Einführung in A2A-Konzepte finden Sie unter Schlüsselkonzepte in A2A.
Beziehung zwischen KI-Agenten und dem A2A-Protokoll
KI-Agents sind Softwareprogramme, die ihre Umgebung wahrnehmen, Entscheidungen treffen und autonome Maßnahmen ergreifen können, um bestimmte Ziele zu erreichen. Diese Agents werden immer ausgefeilter und nutzen häufig Large Language Models (LLMs) für komplexe Aufgaben wie logisches Denken, Planung und Interaktionen in natürlicher Sprache.
Da immer mehr spezialisierte KI-Agents entwickelt werden, ist es wichtig, dass sie kommunizieren und zusammenarbeiten können. Das Agent2Agent-Protokoll (A2A) ist ein offener Standard, der eine nahtlose und sichere Kommunikation und Interoperabilität zwischen KI-Agenten ermöglicht, auch wenn sie mit unterschiedlichen Frameworks von verschiedenen Anbietern erstellt wurden oder auf separaten Servern ausgeführt werden. A2A ermöglicht es Agenten, als gleichberechtigte Partner zusammenzuarbeiten, ohne ihren internen Status oder ihre Logik preiszugeben.
Das folgende Diagramm zeigt die Architektur eines A2A-Agent-Systems, in dem ein A2A-Client (Nutzer oder Agent) mit dem A2A-Agent interagiert:
Das Herzstück des A2A-Agents ist eine Bereitstellungs- und Orchestrierungsebene wie Cloud Run. Diese Ebene verwaltet die Interaktionen mit KI-Modellen wie Gemini und Vertex AI, Speichermedien wie AlloyDB und A2A TaskStore sowie externen Tools über APIs. Clients interagieren mit dem Agent, indem sie Anfragen wie „Get Agent Card“ (Agentenkarte abrufen) oder „send message“ (Nachricht senden) senden und Aufgabenaktualisierungen erhalten.
Informationen zum Lebenszyklus von A2A-Anfragen finden Sie im Abschnitt Lebenszyklus von A2A-Anfragen.
Nächste Schritte
- Eine praktische Anleitung zum Bereitstellen eigener A2A-Agents finden Sie unter A2A-Agent in Cloud Run erstellen und bereitstellen.