In diesem Dokument wird eine allgemeine Architektur für ein KI-System mit mehreren Agents beschrieben, das komplexe Untersuchungs- und Triage-Prozesse in einem Security Operations Center (SOC) orchestriert. Das Agentsystem orchestriert Workflows in verschiedenen Sicherheitssystemen wie Security Information and Event Management (SIEM)-Systemen, Feeds für Bedrohungsdaten, Cloud Security Posture Management (CSPM)-Plattformen und Endpoint Detection and Response (EDR)-Lösungen. Das Agent-System kann folgende Aktionen ausführen:
- Kritische Warnungen aus Google Security Operations aufrufen
- Benachrichtigungen mit Google Threat Intelligence anreichern
- Falsch konfigurierte Assets in einem CSPM-Tool eines Drittanbieters suchen
- Human-in-the-Loop-Genehmigung implementieren
- Rufen Sie detaillierte Endpunkttelemetrie und den Prozessausführungsverlauf aus einem EDR-Drittanbietertool ab, um einen kompromittierten oder verdächtigen Endpunkt zu untersuchen.
Diese Architektur trägt dazu bei, die Effizienz der Analysten zu steigern, da der Kontextwechsel reduziert wird und sie komplexe, mehrstufige Untersuchungen über eine einzige Schnittstelle durchführen können.
Die Zielgruppe für dieses Dokument umfasst Architekten und Entwickler, die für das Design, die Entwicklung und die Implementierung von agentenbasierten KI-Anwendungen sowie für die Integration dieser Anwendungen in bestehende Sicherheitssysteme in Cloud-Umgebungen verantwortlich sind. Die Zielgruppe umfasst auch SOC-Analysten und Systemadministratoren, die für die Sicherheitsvorgänge zuständig sind, Threat Intelligence für die proaktive Abwehr nutzen und robuste SecOps-Workflows für die Erkennung, Untersuchung und Reaktion auf Vorfälle verwalten. In diesem Dokument wird davon ausgegangen, dass Sie ein grundlegendes Verständnis von Agentic AI-Konzepten haben, einschließlich Multi-Agent-Systemen, der Verwendung von Agentic-Tools und der Orchestrierung von Agentic-Systemen. Außerdem wird davon ausgegangen, dass Sie mit Anwendungsfällen für Threat Intelligence, Workflows für Sicherheitsvorgänge und gängigen Sicherheitstools vertraut sind. Informationen zu Threat Intelligence und gängigen Sicherheitstools finden Sie unter Anwendungsfälle und Beispiele für Threat Intelligence.
Architektur
Je nach Ihren Anforderungen können Sie die folgenden Bereitstellungsmodelle auswählen:
- Cloud Run-Bereitstellung: Eine vollständig verwaltete, serverlose Plattform, mit der Sie die gesamte Agent-Anwendung, einzelne Komponenten oder benutzerdefinierte Tools als skalierbare HTTP-Endpunkte bereitstellen können, ohne die zugrunde liegende Infrastruktur verwalten zu müssen.
- Vertex AI Agent Engine mit Gemini Enterprise-Bereitstellung: Eine vollständig verwaltete, meinungsstarke Laufzeit, mit der Sie agentische Anwendungen mit minimalem Betriebsaufwand bereitstellen, betreiben und skalieren können.
Informationen zum Auswählen einer Agent-Laufzeit finden Sie unter Komponenten für die Architektur von agentischer KI auswählen.
Auf den folgenden Tabs finden Sie Architekturdiagramme, die eine Cloud Run-Bereitstellung und eine Vertex AI Agent Engine-Bereitstellung mit Gemini Enterprise zeigen.
Cloud Run
Das folgende Diagramm zeigt eine detaillierte Architektur für ein SOC-Agentsystem, das in Cloud Run bereitgestellt wird:
Die Architektur umfasst die folgenden Komponenten:
| Komponenten | Beschreibung |
|---|---|
| Cloud Load Balancing | Ein Application Load Balancer leitet eingehende Inferenzanfragen vom Sicherheitsanalysten an das Agentsystem weiter. |
| Google Cloud Armor | Erzwingt Sicherheitsrichtlinien basierend auf konfigurierten WAF-Regeln (Web Application Firewall). |
| Identity-Aware Proxy (IAP) | Erzwingt ein Zero-Trust-Sicherheitsmodell und überprüft die Nutzeridentität. |
| Model Armor | Mit Model Armor können Sie Prompts, Tool-Interaktionen und Antworten prüfen und bereinigen. Es bietet flexible Sicherheitskontrollen für jedes zugrunde liegende KI-Modell. Für benutzerdefinierte KI-Agents, die in Cloud Run ausgeführt werden, können Sie Model Armor über die Model Armor API einbinden. |
| Agent-Zusammensetzung | Das Agent Development Kit (ADK) ist ein Framework für die Entwicklung von Agenten, mit dem Sie den Agenten erstellen und als serverlosen Cloud Run-Dienst bereitstellen können. Weitere Informationen zur internen Architektur dieses Agentsystems finden Sie weiter unten in diesem Dokument im Abschnitt Architektur des Agentsystems. |
| KI-Modell | Für die Bereitstellung von Inferenzen verwenden die Agents in dieser Architektur KI-Modelle in Vertex AI. |
| MCP-Server |
Das
Model Context Protocol (MCP) erleichtert den Zugriff auf Tools und standardisiert die Interaktion zwischen Agents und Tools. Das Agentsystem verwendet die folgenden MCP-Server:
|
Verwendete Produkte
In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte und ‑Tools verwendet:
- Cloud Run ist eine serverlose Computing-Plattform, mit der Sie Container direkt auf der skalierbaren Infrastruktur von Google ausführen können.
- Cloud Load Balancing: Ein Portfolio von leistungsstarken, skalierbaren, globalen und regionalen Load-Balancern
- Google Cloud Armor: Ein Netzwerksicherheitsdienst, der WAF-Regeln (Web Application Firewall) bietet und vor DDoS- und Anwendungsangriffen schützt.
- Identity-Aware Proxy (IAP): Ein Dienst, der ein Zero-Trust-Zugriffsmodell für Ihre Anwendungen und virtuellen Maschinen ermöglicht.
- Google Security Operations: Eine Plattform für Security Operations, mit der Sicherheitsteams Cyberbedrohungen erkennen, untersuchen und abwehren können.
- Google Threat Intelligence: Eine Sicherheitslösung, die einen umfassenden und proaktiven Ansatz zum Erkennen, Analysieren und Abwehren von Sicherheitsbedrohungen bietet.
- Google Cloud-MCP-Server: Von Google verwaltete Remotedienste, die das Model Context Protocol (MCP) implementieren, um KI-Anwendungen Zugriff auf Google- und Google Cloud-Produkte und ‑Dienste zu ermöglichen.
- Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
- Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
- Agent Development Kit (ADK): Eine Sammlung von Tools und Bibliotheken zum Entwickeln, Testen und Bereitstellen von KI-Agenten.
- Model Armor: Ein Dienst, der Ihre generativen und agentenbasierten KI-Ressourcen vor Prompt Injections, Lecks sensibler Daten und schädlichen Inhalten schützt.
Vertex AI Agent Engine mit Gemini Enterprise
Das folgende Diagramm zeigt eine detaillierte Architektur für ein KI-System für SOC-Agents, das mit Gemini Enterprise in Vertex AI Agent Engine bereitgestellt wird:
Das Architekturdiagramm zeigt die folgenden Komponenten:
| Komponenten | Beschreibung |
|---|---|
| Gemini Enterprise | Nutzer interagieren über den Chat-Assistenten, der von Gemini Enterprise bereitgestellt wird, mit dem Agentensystem. |
| Agent-Zusammensetzung | Das Agent Development Kit (ADK) ist ein Framework für die Entwicklung von Agenten, mit dem Sie einen benutzerdefinierten Agenten erstellen, ihn in der Vertex AI Agent Engine bereitstellen und den Agenten bei Gemini Enterprise registrieren können. Details zur internen Architektur dieses Agentsystems finden Sie weiter unten in diesem Dokument im Abschnitt Architektur des Agentsystems. |
| KI-Modell | Die Agents in dieser Architektur verwenden KI-Modelle aus dem Vertex AI Model Garden, um Inferenzen auszuführen. |
| Model Armor | Um die Sicherheits- und Compliance-Richtlinien von Unternehmen durchzusetzen, wird Model Armor direkt in Google Cloud -Dienste eingebunden, um Nutzer-Prompts und Modellantworten inline zu prüfen und zu bereinigen. Durch die integrierte Einbindung von Gemini Enterprise und Vertex AI überprüft Model Armor automatisch die Interaktionen zwischen Nutzern und den verwalteten Agents. Weitere Informationen finden Sie unter Model Armor-Integration mit Google Cloud -Diensten. |
| MCP-Server |
Das Model Context Protocol (MCP) erleichtert den Zugriff auf Tools und standardisiert die Interaktion zwischen Agents und Tools. Das Agentsystem verwendet die folgenden MCP-Server:
|
Verwendete Produkte
In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte und ‑Tools verwendet:
- Vertex AI Agent Engine: Eine Plattform, mit der Sie KI-Agenten in der Produktion ausführen, verwalten und skalieren können.
- Gemini Enterprise: Eine vollständig verwaltete, sichere Plattform zum Bereitstellen und Verwalten von KI-Agenten in einem Unternehmen.
- Google Security Operations: Eine Plattform für Security Operations, mit der Sicherheitsteams Cyberbedrohungen erkennen, untersuchen und abwehren können.
- Google Threat Intelligence: Eine Sicherheitslösung, die einen umfassenden und proaktiven Ansatz zur Identifizierung, Analyse und Eindämmung von Sicherheitsbedrohungen bietet.
- Google Cloud-MCP-Server: Von Google verwaltete Remotedienste, die das Model Context Protocol (MCP) implementieren, um KI-Anwendungen Zugriff auf Google- und Google Cloud-Produkte und ‑Dienste zu ermöglichen.
- Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
- Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
- Agent Development Kit (ADK): Eine Sammlung von Tools und Bibliotheken zum Entwickeln, Testen und Bereitstellen von KI-Agenten.
- Model Armor: Ein Dienst, der Ihre generativen und agentenbasierten KI-Ressourcen vor Prompt Injections, Lecks sensibler Daten und schädlichen Inhalten schützt.
Agentensystemarchitektur
In diesem Abschnitt wird die Architektur des benutzerdefinierten SOC-Agentsystems für die vorherigen Cloud Run- oder Gemini Enterprise-Bereitstellungen beschrieben. Um komplexe Sicherheits-Workflows zu orchestrieren, verwendet der Agent ein hierarchisches Muster zur Aufgabenzerlegung. Die Zusammensetzung des Agents bleibt unabhängig von der gewählten Bereitstellungsmethode gleich.
Das folgende Diagramm zeigt eine detaillierte Ansicht der Architektur des Agentensystems:
Die Architektur umfasst die folgenden Komponenten:
| Komponenten | Beschreibung |
|---|---|
| Anwendung | Eine Frontend-Anwendung, z. B. eine Chat-Oberfläche, die mit dem Nutzer interagiert. Sie können Ihre Anwendung mit Cloud Run oder Vertex AI Agent Engine mit Gemini Enterprise bereitstellen. |
| Agents |
In dieser Architektur werden die folgenden Agents verwendet:
Das Diagramm zur Agent-Systemarchitektur zeigt ein Beispiel für eine Architektur, in der zwei SOC-Personas verwendet werden. Je nach Ihren spezifischen Anwendungsfällen können Sie andere SOC-Personas bereitstellen oder eigene benutzerdefinierte Personas erstellen. Eine umfassendere Liste der SOC-Personas, die dazu beitragen können, Ihre Sicherheitsabläufe robuster zu machen, finden Sie unter SOC-Personas. |
| RAG-Wissensdatenbank | Diese Datenbank dient als Grounding-Quelle für Retrieval Augmented Generation (RAG). Die Datenbank wird verwendet, um die Agents mit Incident-Response-Plänen und KI-Runbooks zu versorgen. KI-Runbooks sind präskriptive Workflows in Form von Agent Skills. |
| Artefaktdienst | Ein verwalteter Dienst, in dem Untersuchungsberichte und Beweismittel in Cloud Storage gespeichert werden. |
| Memory Bank | Ein System zur Verwaltung des persistenten Status, in dem benutzerdefinierte Memory-Themen gespeichert werden und mit dem KI-Agenten den Kontext zu Umgebungs- und Bedrohungsaspekten sitzungsübergreifend beibehalten können. |
| KI-Modelle | Für die Bereitstellung von Inferenzen verwenden die Agents in dieser Architektur das neueste Gemini-Modell in Vertex AI. |
| MCP-Server | Die MCP-Server erleichtern den Zugriff auf Tools und standardisieren die Interaktion zwischen Agents und Tools. Für jedes Agent-Tool-Paar sendet ein MCP-Client Anfragen an einen MCP-Server, über den der Agent auf ein Tool wie eine Datenbank, ein Dateisystem oder eine API zugreift. |
| Tools für KI-Agenten | Mit diesen Tools können Kundenservicemitarbeiter Fundierungsdaten wie entsprechende KI-Runbooks, � |
| ADK | Das ADK bietet Tools und ein Framework zum Entwickeln, Testen und Bereitstellen von Agenten. Das ADK abstrahiert die Komplexität der Agentenerstellung und ermöglicht es KI-Entwicklern, sich auf die Logik und die Funktionen des Agenten zu konzentrieren. |
Die Architektur zeigt den folgenden Datenfluss:
- Ein Sicherheitsanalyst sendet eine Anfrage an den SOC-Manager, der ein Coordinator-Kundenservicemitarbeiter ist. Ein Analyst sendet beispielsweise eine Anfrage zur Untersuchung von Fall 37.
- Die Anwendung, die in Cloud Run oder in Gemini Enterprise bereitgestellt wird, leitet die Anfrage an den SOC-Manager weiter.
- Der SOC-Manager verwendet Gemini, um die Anfrage des Nutzers zu interpretieren.
- Der SOC-Manager führt die folgenden Aufgaben aus, um Kontext zum Antrag zu sammeln:
- Sendet eine Anfrage an die RAG-Wissensdatenbank, um die entsprechenden KI-Runbooks, präskriptiven Workflows in Form von KI-Skills und den Plan zur Reaktion auf Vorfälle abzurufen.
- Ruft frühere Erinnerungen ab, um festzustellen, ob das Agent-System ähnliche Vorfälle analysiert hat.
- Prüft den Artifact Service auf vorhandene Berichte oder Beweise, die sich auf die Anfrage beziehen.
- Der SOC-Manager verwendet Gemini und den abgerufenen Kontext, um die Anfrage in eine Reihe von untergeordneten Aufgaben zu unterteilen und die geeigneten Tools zu identifizieren.
- Der SOC-Manager leitet Unteraufgaben dynamisch an spezialisierte Unter-Agents weiter, z. B. an den Tier 1-Analysten und den CTI-Researcher (Cyber Threat Intelligence).
- Jeder untergeordnete Agent führt die folgenden Aktionen aus, um die ihm zugewiesenen untergeordneten Aufgaben auszuführen:
- Gemini wird verwendet, um die Aufgabenziele zu interpretieren.
- Ruft relevanten Kontext aus der RAG-Wissensdatenbank, dem Speicher und Artefakten ab.
- Verwendet MCP-Server, um den folgenden zusätzlichen Kontext für die Fundierung von Antworten zu erfassen:
- Wissensdokumentation wie frühere Berichte, interne Dokumentation und Playbooks.
- Sicherheitsinformationen und Telemetrie, für die Daten aus Google SecOps und Google Threat Intelligence verwendet werden.
- Verwendet Gemini und den abgerufenen Kontext, um Ergebnisse zu generieren.
- Die Ergebnisse werden in einer strukturierten Zusammenfassung dargestellt.
- Leitet die Zwischenantwort an den SOC-Manager weiter.
- Der SOC-Manager erhält die Zwischenantworten von den untergeordneten Agents und bewertet die Ergebnisse anhand der Anforderungen des KI-Runbooks.
- Wenn die Ergebnisse die Bewertungskriterien nicht erfüllen, wiederholt der SOC-Manager die Analyse der Anfrage des Nutzers und delegiert Unteraufgaben an untergeordnete Kundenservicemitarbeiter, um zusätzliche Daten zu sammeln. Während dieses iterativen Ablaufs behält der SOC-Manager die vorherige Kontextkette bei, um nachfolgende Tool-Aufrufe und Subagent-Delegierungen zu informieren und zu erweitern. Der SOC-Manager setzt diesen Zyklus fort, bis die Ergebnisse den Bewertungskriterien entsprechen.
- Wenn die Ergebnisse die Bewertungskriterien oder eine Beendigungsbedingung wie „Maximale Anzahl von Iterationen“ erfüllen, führt der SOC-Manager die folgenden Aktionen aus:
- Gemini wird verwendet, um alle Ergebnisse der untergeordneten Agenten in einem Untersuchungsbericht zusammenzufassen. Der Bericht wird im Artifact Service gespeichert.
- Verwendet den Google SecOps-MCP-Server, um Ergebnisse in der Fallübersicht zu posten.
- Neue Erinnerungen werden in der Vertex AI Memory Bank gespeichert.
- Der SOC-Manager sendet den Artefaktlink und die Berichtszusammenfassung an den Sicherheitsanalysten zurück.
Verwendete Produkte
Die Agent-Systemarchitektur in diesem Dokument verwendet die folgenden Produkte und Tools: Google Cloud
- Google Security Operations: Eine Plattform für Security Operations, mit der Sicherheitsteams Cyberbedrohungen erkennen, untersuchen und abwehren können.
- Google Threat Intelligence: Eine Sicherheitslösung, die einen umfassenden und proaktiven Ansatz zur Identifizierung, Analyse und Eindämmung von Sicherheitsbedrohungen bietet.
- Google Cloud-MCP-Server: Von Google verwaltete Remotedienste, die das Model Context Protocol (MCP) implementieren, um KI-Anwendungen Zugriff auf Google- und Google Cloud-Produkte und ‑Dienste zu ermöglichen.
- Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
- Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
- Agent Development Kit (ADK): Eine Sammlung von Tools und Bibliotheken zum Entwickeln, Testen und Bereitstellen von KI-Agenten.
- Model Armor: Ein Dienst, der Ihre generativen und agentenbasierten KI-Ressourcen vor Prompt Injections, Lecks sensibler Daten und schädlichen Inhalten schützt.
- Memory Bank: Ein dauerhafter Speicherdienst, der langfristige Erinnerungen basierend auf den Unterhaltungen eines Nutzers mit einem Agent generiert, verfeinert, verwaltet und abruft.
- Cloud Storage: Ein kostengünstiger, unbegrenzter Objektspeicher für verschiedene Datentypen. Auf Daten kann von innerhalb und außerhalb von Google Cloudzugegriffen werden. Sie werden zu Redundanzzwecken über Standorte hinweg repliziert.
Informationen zum Auswählen alternativer Komponenten für Ihr agentisches KI-System, einschließlich Framework, Agent-Laufzeit, Tools, Speicher und Designmustern, finden Sie unter Komponenten für die Architektur von agentischen KI-Systemen auswählen.
Designaspekte
Beachten Sie die folgenden Empfehlungen, wenn Sie diese Architektur für die Produktion implementieren:
- Zugriff auf Agent-Tools: Um den Tokenverbrauch zu senken und das Prinzip der geringsten Berechtigung zu erzwingen, stellen Sie verschiedenen Agents nach Bedarf Teilmengen von Tools zur Verfügung.
- Agent-Bereich: Um die Modellgenauigkeit zu verbessern, sollten Sie die Runbooks und Systemanweisungen jedes Agents eingrenzen.
- Verwaltung des Kontextfensters: Um den Tokenverbrauch zu minimieren, sollten Sie Prompts und Tool-Ausgaben so kurz wie möglich gestalten. RAG-Repositories und Agent-Skills verwenden, um Kontext vorzuladen und umfangreiche Tool-Antworten zusammenzufassen.
- Prompt-Caching: Um die Kosten für Eingabetokens zu senken, können Sie statische Agent-Inhalte wie Systemanweisungen, Personas, Runbooks und Tool-Schemas im Cache speichern.
- Modellauswahl: Das Modell, das Sie für Ihre KI-Anwendung auswählen, wirkt sich direkt auf Kosten und Leistung aus. Wählen Sie in Ihrem agentischen System verschiedene Modelle basierend auf den verschiedenen Agent-Rollen und Aufgabenanforderungen aus. Für komplexes Reasoning und die Zerlegung von Aufgaben sollten Sie ein Thinking-Modell wie Gemini Pro verwenden. Verwenden Sie für kleine und direkte Aufgaben ein schnelles, kostengünstiges Modell wie Gemini Flash.
- MCP-Schema-Kompatibilität: Bereinigen Sie Tool-Schemas, um zu verhindern, dass das KI-Modell Tool-Definitionen falsch interpretiert und falsche Tool-Aufrufe ausführt.
Erstellen Sie in sich geschlossene Konstrukte für JSON-Schema
$refund$defsund normalisieren Sie Typstrings in Großbuchstaben. - Authentifizierungsumgebungen: Damit die Authentifizierung in allen Umgebungen reibungslos funktioniert, müssen Sie Ihre Bereitstellungspipelines so konfigurieren, dass der Übergang von Authentifizierungsstrategien für die Entwicklung verwaltet wird. Möglicherweise müssen Sie beispielsweise von Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) bei der lokalen Ausführung zu Dienstkonten wechseln, die von Identity and Access Management (IAM) für gehostete Remote-MCP-Server in der Produktion verwaltet werden.
Bereitstellung
Wenn Sie eine Beispielimplementierung dieser Architektur bereitstellen möchten, die benutzerdefinierte SOC-Agents bietet, verwenden Sie das Agentic SOC Gemini Enterprise-Codebeispiel, das auf GitHub verfügbar ist.
Wir empfehlen, den Agenten in der folgenden Reihenfolge zu optimieren:
- Lokal bereitstellen mit ADK Web: Beschleunigen Sie das Prototyping und iterieren Sie schnell an der Agent-Logik.
- In einem lokalen Container bereitstellen: Sorgen Sie für eine portable und unveränderliche Umgebung mit konsistenten Abhängigkeiten.
- Container in Cloud Run oder der Vertex AI Agent Engine bereitstellen: Skalieren Sie Ihre Agenten für effektive Sicherheitsvorgänge und verschieben Sie Ihre Anwendung von der Entwicklung in die Produktion.
Nächste Schritte
- KI-Agents in Cloud Run hosten
- Weitere Informationen zur Sicherheit mit generativer KI
- Sicherheit bei Gemini Enterprise – Übersicht
- Multi-Agenten-KI-System in Google Cloud erstellen
- Agenten über den Google SecOps MCP-Server mit Google SecOps-Daten verbinden
- Sehen Sie sich die Sicherheitsperspektive im Google Cloud Well-Architected Framework an.
- Weitere Referenzarchitekturen, Diagramme und Best Practices finden Sie im Cloud-Architekturcenter.
Beitragende
Autoren:
- Ben Perel | Security Specialist
- Daniel Dye | SecOps AI Engineer
Weitere Beitragende:
- Amr Abdelrazik | Group Product Manager
- Kumar Dhanagopal | Cross-Product Solution Developer
- Samantha He | Technical Writer