Anwendungsfall für Agent-KI: Zugriff auf unterschiedliche Unternehmenssysteme orchestrieren

Dieses Dokument enthält eine allgemeine Architektur für ein agentenbasiertes KI-System, mit dem Interaktionen mit unterschiedlichen Unternehmenssystemen orchestriert werden können. Ein Orchestrator-Agent automatisiert komplexe Prozesse und vereinheitlicht den Zugriff auf mehrere Unternehmenssysteme über moderne, dialogorientierte Schnittstellen. Dabei kann es sich um kommerzielle Drittanbieteranwendungen oder proprietäre interne Systeme handeln. Durch diesen Ansatz werden Punkt-zu-Punkt-Systemintegrationen vermieden, sodass Ihre Kundenservicemitarbeiter nicht ständig den Kontext wechseln müssen (Swivel-Chair-Verarbeitung).

Dieses Dokument richtet sich an Architekten, Entwickler und Administratoren, die agentenbasierte KI-Anwendungen in der Cloud entwickeln und verwalten. In diesem Dokument wird davon ausgegangen, dass Sie ein grundlegendes Verständnis von Agent-KI haben.

Architektur

Das folgende Diagramm zeigt eine mehrschichtige Architektur, in der ein Orchestrator-Agent KI verwendet, um Clientinteraktionen aus mehreren Kanälen an die entsprechenden Back-End-Systeme weiterzuleiten.

Architektur für eine KI-Agentenanwendung, die den Zugriff auf unterschiedliche Unternehmenssysteme orchestriert. Architektur für eine KI-Agentenanwendung, die den Zugriff auf unterschiedliche Unternehmenssysteme orchestriert.

Die Komponenten in der Architektur sind in den folgenden Ebenen organisiert:

Ebene Komponenten
Interaktionskanäle

In der Beispielarchitektur interagieren Clients über die folgenden Kanäle mit dem System für agentenbasierte KI:

  • Ein benutzerdefiniertes Frontend, z. B. eine Webanwendung, die über eine sichere REST API mit dem Agent kommuniziert und Human-in-the-Loop-Prozesse unterstützt.
  • Eine Ad-hoc-Chatoberfläche in Gemini Enterprise, die den Agent als sicheres Tool aufruft und es Nutzern ermöglicht, in natürlicher Sprache mit komplexen Backend-Systemen zu interagieren.
  • Eine externe Anwendung, die System-zu-System-Automatisierungsabläufe initiiert, indem sie Geschäftsereignisse in einem Pub/Sub-Thema veröffentlicht.
Agentischer Kern

Die Kernkomponente der Architektur ist ein Orchestrator-Agent, der mit dem Agent Development Kit (ADK) erstellt und in Cloud Run bereitgestellt wird. Der Orchestrator verwaltet ein Multi-Agent-System. Diese serverlose Plattform bietet Skalierbarkeit und Zugriffssteuerung über Identity and Access Management (IAM) für die REST API des Agents.

Um den Status bei mehrstufigen Aufgaben beizubehalten, verwendet der Agent die integrierte ADK-Unterstützung, um Statusdaten im Vertex AI Session Service oder in Cloud Storage persistent zu speichern.

Standardisierte Einbindung in Back-End-Systeme

Für die Kommunikation zwischen dem Agent und den Backend-Systemen werden in der Architektur MCP-Server (Model Context Protocol) verwendet, die in Cloud Run bereitgestellt werden.

  • Die MCP Toolbox für Datenbanken bietet eine sichere, sofort einsatzbereite Reihe von Tools für den Zugriff auf Datenbanken wie Cloud SQL.
  • Benutzerdefinierte MCP-Server bieten Zugriff auf die Backend-Anwendungen.

Jeder MCP-Server stellt die API eines bestimmten Backend-Systems als standardisiertes Toolset bereit. Die MCP-Server bilden eine Anti-Corruption-Ebene, die den Agenten von den Backend-Systemen isoliert. Dieser Ansatz trägt dazu bei, eine enge Kopplung des Agents an die Backend-Systeme zu vermeiden. Dadurch wird die Logik des Agents vereinfacht und Sie können die Backend-Systeme unabhängig vom Agent modernisieren.

Backend-Systeme

In der Beispielarchitektur orchestriert der KI-Agent den Zugriff auf die folgenden Backend-Systeme:

  • Eine operative Datenbank in Cloud SQL.
  • Eine Anwendung, die auf Compute Engine-VMs bereitgestellt wird.
  • Eine Anwendung, die außerhalb von Google Cloudausgeführt wird.

Verwendete Produkte

In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte verwendet:

  • Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
  • Cloud Run ist eine serverlose Computing-Plattform, mit der Sie Container direkt auf der skalierbaren Infrastruktur von Google ausführen können.
  • Pub/Sub: Ein asynchroner, skalierbarer Messaging-Dienst, der Dienste entkoppelt, die Nachrichten von Diensten erzeugen, die diese Nachrichten verarbeiten.
  • Gemini Enterprise: Eine vollständig verwaltete, sichere Plattform zum Bereitstellen und Verwalten von KI-Agenten in einem Unternehmen.
  • Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
  • Cloud Storage: Ein kostengünstiger, unbegrenzter Objektspeicher für verschiedene Datentypen. Auf Daten kann von innerhalb und außerhalb von Google Cloudzugegriffen werden. Sie werden zu Redundanzzwecken über Standorte hinweg repliziert.
  • Cloud SQL: Ein vollständig verwalteter Dienst für relationale Datenbanken, mit dem Sie Ihre MySQL-, PostgreSQL- und SQL Server-Datenbanken auf Google Cloudbereitstellen, betreiben und verwalten können.

Anwendungsfälle

Diese Architektur ist für die folgenden Anwendungsfälle nützlich:

  • Automatisieren Sie die Verarbeitung von Daten zwischen verschiedenen externen und internen Anwendungen.
  • Eine einheitliche Schnittstelle für mehrere Legacy-Systeme erstellen, ohne dass eine umfangreiche Migration erforderlich ist.
  • Fügen Sie bestehenden Geschäftsprozessen intelligente Konversationsfunktionen hinzu.
  • Anwendungen mit ereignisgesteuerten Funktionen schrittweise modernisieren

Die Architektur bietet folgende Vorteile:

  • Produktivität: Automatisieren Sie sich wiederholende Aufgaben, um menschliche Fehler zu reduzieren, damit sich Ihre Teams auf wertschöpfende Aufgaben konzentrieren können.
  • Skalierbarkeit: Verwenden Sie einen ereignisgesteuerten Ansatz, um Dienste unabhängig voneinander zu entwickeln, bereitzustellen und zu skalieren.
  • Verbesserte Nutzerfreundlichkeit: Sie können moderne, flexible Benutzeroberflächen erstellen, um komplexe Geschäftsprozesse zu integrieren.
  • Zukunftssichere Integration: Standardisieren Sie die Integration mit Backend-Systemen mithilfe von MCP-Servern, damit Sie die Backend-Systeme unabhängig voneinander ersetzen und aktualisieren können.

Designaspekte

Beachten Sie die folgenden Empfehlungen, wenn Sie diese Architektur für die Produktion implementieren:

  • Sicherheit: Verwenden Sie für die Cloud Run-Dienste dedizierte IAM-Dienstkonten mit Berechtigungen, die auf dem Grundsatz der geringsten Berechtigung basieren. Sichern Sie die API des Agents, indem Sie Cloud Run-Ingress-Steuerelemente konfigurieren, um den Zugriff auf authentifizierte Aufrufer zu beschränken.
  • Beobachtbarkeit: In verteilten Systemen sind Logging und Tracing für die Fehlerbehebung von entscheidender Bedeutung. Wenn Sie den gesamten agentenbasierten Workflow im Blick behalten möchten, instrumentieren Sie Ihre Dienste so, dass strukturierte Logs in Cloud Logging geschrieben und Traces an Cloud Trace gesendet werden.
  • Leistung: Cloud Run wird automatisch je nach Bedarf skaliert und auf null skaliert, wenn keine Last vorhanden ist. Bei latenzempfindlichen Anwendungen können Sie Kaltstarts minimieren, indem Sie eine Mindestanzahl von Instanzen konfigurieren.
  • Automatisierung der Bereitstellung: Automatisieren Sie die Bereitstellung und Verwaltung von Ressourcen mithilfe eines IaC-Tools (Infrastruktur als Code) wie Terraform. Iac trägt dazu bei, dass Bereitstellungen in Entwicklung, Staging und Produktion wiederholbar und prüfbar sind.
  • Governance: Mit dem Application Design Center können Sie das Design und die Bereitstellung der Infrastruktur Ihrer Anwendung optimieren. Mit dem App Design Center können Sie Vorlagen definieren, die Governance-Regeln und Best Practices für Ihre Organisation enthalten.

Nächste Schritte

Beitragende

Autor: Casey West | Architecture Advocate, Google Cloud

Weitere Beitragende: