Dieses Dokument enthält eine allgemeine Architektur für ein agentenbasiertes KI-System, mit dem Interaktionen mit unterschiedlichen Unternehmenssystemen orchestriert werden können. Ein Orchestrator-Agent automatisiert komplexe Prozesse und vereinheitlicht den Zugriff auf mehrere Unternehmenssysteme über moderne, dialogorientierte Schnittstellen. Dabei kann es sich um kommerzielle Drittanbieteranwendungen oder proprietäre interne Systeme handeln. Durch diesen Ansatz werden Punkt-zu-Punkt-Systemintegrationen vermieden, sodass Ihre Kundenservicemitarbeiter nicht ständig den Kontext wechseln müssen (Swivel-Chair-Verarbeitung).
Dieses Dokument richtet sich an Architekten, Entwickler und Administratoren, die agentenbasierte KI-Anwendungen in der Cloud entwickeln und verwalten. In diesem Dokument wird davon ausgegangen, dass Sie ein grundlegendes Verständnis von Agent-KI haben.
Architektur
Das folgende Diagramm zeigt eine mehrschichtige Architektur, in der ein Orchestrator-Agent KI verwendet, um Clientinteraktionen aus mehreren Kanälen an die entsprechenden Back-End-Systeme weiterzuleiten.
Die Komponenten in der Architektur sind in den folgenden Ebenen organisiert:
| Ebene | Komponenten |
|---|---|
| Interaktionskanäle | In der Beispielarchitektur interagieren Clients über die folgenden Kanäle mit dem System für agentenbasierte KI:
|
| Agentischer Kern | Die Kernkomponente der Architektur ist ein Orchestrator-Agent, der mit dem Agent Development Kit (ADK) erstellt und in Cloud Run bereitgestellt wird. Der Orchestrator verwaltet ein Multi-Agent-System. Diese serverlose Plattform bietet Skalierbarkeit und Zugriffssteuerung über Identity and Access Management (IAM) für die REST API des Agents. Um den Status bei mehrstufigen Aufgaben beizubehalten, verwendet der Agent die integrierte ADK-Unterstützung, um Statusdaten im Vertex AI Session Service oder in Cloud Storage persistent zu speichern. |
| Standardisierte Einbindung in Back-End-Systeme | Für die Kommunikation zwischen dem Agent und den Backend-Systemen werden in der Architektur MCP-Server (Model Context Protocol) verwendet, die in Cloud Run bereitgestellt werden.
Jeder MCP-Server stellt die API eines bestimmten Backend-Systems als standardisiertes Toolset bereit. Die MCP-Server bilden eine Anti-Corruption-Ebene, die den Agenten von den Backend-Systemen isoliert. Dieser Ansatz trägt dazu bei, eine enge Kopplung des Agents an die Backend-Systeme zu vermeiden. Dadurch wird die Logik des Agents vereinfacht und Sie können die Backend-Systeme unabhängig vom Agent modernisieren. |
| Backend-Systeme | In der Beispielarchitektur orchestriert der KI-Agent den Zugriff auf die folgenden Backend-Systeme:
|
Verwendete Produkte
In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte verwendet:
- Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
- Cloud Run ist eine serverlose Computing-Plattform, mit der Sie Container direkt auf der skalierbaren Infrastruktur von Google ausführen können.
- Pub/Sub: Ein asynchroner, skalierbarer Messaging-Dienst, der Dienste entkoppelt, die Nachrichten von Diensten erzeugen, die diese Nachrichten verarbeiten.
- Gemini Enterprise: Eine vollständig verwaltete, sichere Plattform zum Bereitstellen und Verwalten von KI-Agenten in einem Unternehmen.
- Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
- Cloud Storage: Ein kostengünstiger, unbegrenzter Objektspeicher für verschiedene Datentypen. Auf Daten kann von innerhalb und außerhalb von Google Cloudzugegriffen werden. Sie werden zu Redundanzzwecken über Standorte hinweg repliziert.
- Cloud SQL: Ein vollständig verwalteter Dienst für relationale Datenbanken, mit dem Sie Ihre MySQL-, PostgreSQL- und SQL Server-Datenbanken auf Google Cloudbereitstellen, betreiben und verwalten können.
Anwendungsfälle
Diese Architektur ist für die folgenden Anwendungsfälle nützlich:
- Automatisieren Sie die Verarbeitung von Daten zwischen verschiedenen externen und internen Anwendungen.
- Eine einheitliche Schnittstelle für mehrere Legacy-Systeme erstellen, ohne dass eine umfangreiche Migration erforderlich ist.
- Fügen Sie bestehenden Geschäftsprozessen intelligente Konversationsfunktionen hinzu.
- Anwendungen mit ereignisgesteuerten Funktionen schrittweise modernisieren
Die Architektur bietet folgende Vorteile:
- Produktivität: Automatisieren Sie sich wiederholende Aufgaben, um menschliche Fehler zu reduzieren, damit sich Ihre Teams auf wertschöpfende Aufgaben konzentrieren können.
- Skalierbarkeit: Verwenden Sie einen ereignisgesteuerten Ansatz, um Dienste unabhängig voneinander zu entwickeln, bereitzustellen und zu skalieren.
- Verbesserte Nutzerfreundlichkeit: Sie können moderne, flexible Benutzeroberflächen erstellen, um komplexe Geschäftsprozesse zu integrieren.
- Zukunftssichere Integration: Standardisieren Sie die Integration mit Backend-Systemen mithilfe von MCP-Servern, damit Sie die Backend-Systeme unabhängig voneinander ersetzen und aktualisieren können.
Designaspekte
Beachten Sie die folgenden Empfehlungen, wenn Sie diese Architektur für die Produktion implementieren:
- Sicherheit: Verwenden Sie für die Cloud Run-Dienste dedizierte IAM-Dienstkonten mit Berechtigungen, die auf dem Grundsatz der geringsten Berechtigung basieren. Sichern Sie die API des Agents, indem Sie Cloud Run-Ingress-Steuerelemente konfigurieren, um den Zugriff auf authentifizierte Aufrufer zu beschränken.
- Beobachtbarkeit: In verteilten Systemen sind Logging und Tracing für die Fehlerbehebung von entscheidender Bedeutung. Wenn Sie den gesamten agentenbasierten Workflow im Blick behalten möchten, instrumentieren Sie Ihre Dienste so, dass strukturierte Logs in Cloud Logging geschrieben und Traces an Cloud Trace gesendet werden.
- Leistung: Cloud Run wird automatisch je nach Bedarf skaliert und auf null skaliert, wenn keine Last vorhanden ist. Bei latenzempfindlichen Anwendungen können Sie Kaltstarts minimieren, indem Sie eine Mindestanzahl von Instanzen konfigurieren.
- Automatisierung der Bereitstellung: Automatisieren Sie die Bereitstellung und Verwaltung von Ressourcen mithilfe eines IaC-Tools (Infrastruktur als Code) wie Terraform. Iac trägt dazu bei, dass Bereitstellungen in Entwicklung, Staging und Produktion wiederholbar und prüfbar sind.
- Governance: Mit dem Application Design Center können Sie das Design und die Bereitstellung der Infrastruktur Ihrer Anwendung optimieren. Mit dem App Design Center können Sie Vorlagen definieren, die Governance-Regeln und Best Practices für Ihre Organisation enthalten.
Nächste Schritte
- (Codelab) Sicheren MCP-Server in Cloud Run bereitstellen
- (Codelab) KI-Agenten erstellen und bereitstellen, der einen MCP-Server in Cloud Run verwendet
- (Codelab) Asynchronously invoke an agentic AI application by using events (Asynchrone Aufrufe einer KI-Anwendung mit Agenten mithilfe von Ereignissen).
- (Google Skills-Kurs) Intelligente Agenten mit dem ADK erstellen
- (Codebeispiele) Weitere Codebeispiele zum Erstellen von Agents mit dem ADK finden Sie auf GitHub.
- Eine Übersicht über Architekturprinzipien und Empfehlungen, die speziell für KI- und ML-Arbeitslasten in Google Cloudgelten, finden Sie im Well-Architected Framework in der KI- und ML-Perspektive.
Beitragende
Autor: Casey West | Architecture Advocate, Google Cloud
Weitere Beitragende:
- Amina Mansour | Head of Cloud Platform Evaluations Team
- Kumar Dhanagopal | Cross-Product Solution Developer
- Leonid Yankulin | Developer Relations Engineer