Anwendungsfall für agentische KI: Workflows für Sicherheitsvorgänge orchestrieren

Last reviewed 2026-04-08 UTC

In diesem Dokument wird eine allgemeine Architektur für ein KI-System mit mehreren Agents beschrieben, das komplexe Untersuchungs- und Triage-Prozesse in einem Security Operations Center (SOC) orchestriert. Das Agentsystem orchestriert Workflows in verschiedenen Sicherheitssystemen wie Security Information and Event Management (SIEM)-Systemen, Feeds für Bedrohungsdaten, Cloud Security Posture Management (CSPM)-Plattformen und Endpoint Detection and Response (EDR)-Lösungen. Das Agent-System kann folgende Aktionen ausführen:

  • Kritische Warnungen aus Google Security Operations aufrufen
  • Benachrichtigungen mit Google Threat Intelligence anreichern
  • Falsch konfigurierte Assets in einem CSPM-Tool eines Drittanbieters suchen
  • Human-in-the-Loop-Genehmigung implementieren
  • Rufen Sie detaillierte Endpunkttelemetrie und den Prozessausführungsverlauf aus einem EDR-Drittanbietertool ab, um einen kompromittierten oder verdächtigen Endpunkt zu untersuchen.

Diese Architektur trägt dazu bei, die Effizienz der Analysten zu steigern, da der Kontextwechsel reduziert wird und sie komplexe, mehrstufige Untersuchungen über eine einzige Schnittstelle durchführen können.

Die Zielgruppe für dieses Dokument umfasst Architekten und Entwickler, die für das Design, die Entwicklung und die Implementierung von agentenbasierten KI-Anwendungen sowie für die Integration dieser Anwendungen in bestehende Sicherheitssysteme in Cloud-Umgebungen verantwortlich sind. Die Zielgruppe umfasst auch SOC-Analysten und Systemadministratoren, die für die Sicherheitsvorgänge zuständig sind, Threat Intelligence für die proaktive Abwehr nutzen und robuste SecOps-Workflows für die Erkennung, Untersuchung und Reaktion auf Vorfälle verwalten. In diesem Dokument wird davon ausgegangen, dass Sie ein grundlegendes Verständnis von Agentic AI-Konzepten haben, einschließlich Multi-Agent-Systemen, der Verwendung von Agentic-Tools und der Orchestrierung von Agentic-Systemen. Außerdem wird davon ausgegangen, dass Sie mit Anwendungsfällen für Threat Intelligence, Workflows für Sicherheitsvorgänge und gängigen Sicherheitstools vertraut sind. Informationen zu Threat Intelligence und gängigen Sicherheitstools finden Sie unter Anwendungsfälle und Beispiele für Threat Intelligence.

Architektur

Je nach Ihren Anforderungen können Sie die folgenden Bereitstellungsmodelle auswählen:

  • Cloud Run-Bereitstellung: Eine vollständig verwaltete, serverlose Plattform, mit der Sie die gesamte Agent-Anwendung, einzelne Komponenten oder benutzerdefinierte Tools als skalierbare HTTP-Endpunkte bereitstellen können, ohne die zugrunde liegende Infrastruktur verwalten zu müssen.
  • Vertex AI Agent Engine mit Gemini Enterprise-Bereitstellung: Eine vollständig verwaltete, meinungsstarke Laufzeit, mit der Sie agentische Anwendungen mit minimalem Betriebsaufwand bereitstellen, betreiben und skalieren können.

Informationen zum Auswählen einer Agent-Laufzeit finden Sie unter Komponenten für die Architektur von agentischer KI auswählen.

Auf den folgenden Tabs finden Sie Architekturdiagramme, die eine Cloud Run-Bereitstellung und eine Vertex AI Agent Engine-Bereitstellung mit Gemini Enterprise zeigen.

Cloud Run

Das folgende Diagramm zeigt eine detaillierte Architektur für ein SOC-Agentsystem, das in Cloud Run bereitgestellt wird:

Eine detaillierte Architektur für ein SOC-Agentsystem, das in Cloud Run bereitgestellt wird.

Die Architektur umfasst die folgenden Komponenten:

Komponenten Beschreibung
Cloud Load Balancing Ein Application Load Balancer leitet eingehende Inferenzanfragen vom Sicherheitsanalysten an das Agentsystem weiter.
Google Cloud Armor Erzwingt Sicherheitsrichtlinien basierend auf konfigurierten WAF-Regeln (Web Application Firewall).
Identity-Aware Proxy (IAP) Erzwingt ein Zero-Trust-Sicherheitsmodell und überprüft die Nutzeridentität.
Model Armor Mit Model Armor können Sie Prompts, Tool-Interaktionen und Antworten prüfen und bereinigen. Es bietet flexible Sicherheitskontrollen für jedes zugrunde liegende KI-Modell. Für benutzerdefinierte KI-Agents, die in Cloud Run ausgeführt werden, können Sie Model Armor über die Model Armor API einbinden.
Agent-Zusammensetzung Das Agent Development Kit (ADK) ist ein Framework für die Entwicklung von Agenten, mit dem Sie den Agenten erstellen und als serverlosen Cloud Run-Dienst bereitstellen können. Weitere Informationen zur internen Architektur dieses Agentsystems finden Sie weiter unten in diesem Dokument im Abschnitt Architektur des Agentsystems.
KI-Modell Für die Bereitstellung von Inferenzen verwenden die Agents in dieser Architektur KI-Modelle in Vertex AI.
MCP-Server Das Model Context Protocol (MCP) erleichtert den Zugriff auf Tools und standardisiert die Interaktion zwischen Agents und Tools. Das Agentsystem verwendet die folgenden MCP-Server:

Verwendete Produkte

In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte und ‑Tools verwendet:

  • Cloud Run ist eine serverlose Computing-Plattform, mit der Sie Container direkt auf der skalierbaren Infrastruktur von Google ausführen können.
  • Cloud Load Balancing: Ein Portfolio von leistungsstarken, skalierbaren, globalen und regionalen Load-Balancern
  • Google Cloud Armor: Ein Netzwerksicherheitsdienst, der WAF-Regeln (Web Application Firewall) bietet und vor DDoS- und Anwendungsangriffen schützt.
  • Identity-Aware Proxy (IAP): Ein Dienst, der ein Zero-Trust-Zugriffsmodell für Ihre Anwendungen und virtuellen Maschinen ermöglicht.
  • Google Security Operations: Eine Plattform für Security Operations, mit der Sicherheitsteams Cyberbedrohungen erkennen, untersuchen und abwehren können.
  • Google Threat Intelligence: Eine Sicherheitslösung, die einen umfassenden und proaktiven Ansatz zum Erkennen, Analysieren und Abwehren von Sicherheitsbedrohungen bietet.
  • Google Cloud-MCP-Server: Von Google verwaltete Remotedienste, die das Model Context Protocol (MCP) implementieren, um KI-Anwendungen Zugriff auf Google- und Google Cloud-Produkte und ‑Dienste zu ermöglichen.
  • Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
  • Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
  • Agent Development Kit (ADK): Eine Sammlung von Tools und Bibliotheken zum Entwickeln, Testen und Bereitstellen von KI-Agenten.
  • Model Armor: Ein Dienst, der Ihre generativen und agentenbasierten KI-Ressourcen vor Prompt Injections, Lecks sensibler Daten und schädlichen Inhalten schützt.

Vertex AI Agent Engine mit Gemini Enterprise

Das folgende Diagramm zeigt eine detaillierte Architektur für ein KI-System für SOC-Agents, das mit Gemini Enterprise in Vertex AI Agent Engine bereitgestellt wird:

Eine detaillierte Architektur für ein KI-System für SOC-Agents, das in Vertex AI Agent Engine mit Gemini Enterprise bereitgestellt wird.

Das Architekturdiagramm zeigt die folgenden Komponenten:

Komponenten Beschreibung
Gemini Enterprise Nutzer interagieren über den Chat-Assistenten, der von Gemini Enterprise bereitgestellt wird, mit dem Agentensystem.
Agent-Zusammensetzung Das Agent Development Kit (ADK) ist ein Framework für die Entwicklung von Agenten, mit dem Sie einen benutzerdefinierten Agenten erstellen, ihn in der Vertex AI Agent Engine bereitstellen und den Agenten bei Gemini Enterprise registrieren können. Details zur internen Architektur dieses Agentsystems finden Sie weiter unten in diesem Dokument im Abschnitt Architektur des Agentsystems.
KI-Modell Die Agents in dieser Architektur verwenden KI-Modelle aus dem Vertex AI Model Garden, um Inferenzen auszuführen.
Model Armor Um die Sicherheits- und Compliance-Richtlinien von Unternehmen durchzusetzen, wird Model Armor direkt in Google Cloud -Dienste eingebunden, um Nutzer-Prompts und Modellantworten inline zu prüfen und zu bereinigen. Durch die integrierte Einbindung von Gemini Enterprise und Vertex AI überprüft Model Armor automatisch die Interaktionen zwischen Nutzern und den verwalteten Agents. Weitere Informationen finden Sie unter Model Armor-Integration mit Google Cloud -Diensten.
MCP-Server Das Model Context Protocol (MCP) erleichtert den Zugriff auf Tools und standardisiert die Interaktion zwischen Agents und Tools. Das Agentsystem verwendet die folgenden MCP-Server:
  • Google SecOps-MCP-Server: Ein von Google verwalteter MCP-Server, der Zugriff auf Google SecOps SIEM- und Google SecOps SOAR-Daten bietet, einschließlich Ereignissen, Entitäten, Rohlogs und Falldetails.
  • Google Threat Intelligence-MCP-Server: Ein lokaler MCP-Server, der Zugriff auf Google Threat Intelligence bietet. Google Threat Intelligence korreliert interne Umgebungsbenachrichtigungen mit globalen Daten zu Angreifern und optimiert die Identifizierung bekannter schädlicher Indikatoren im SOC-Workflow.
  • MCP-Server von Drittanbietern: Ein Connector, der von Drittanbietern verwaltet wird und mit dem Sie mit externen Sicherheitstools interagieren können.

Verwendete Produkte

In dieser Beispielarchitektur werden die folgenden Google Cloud Produkte und ‑Tools verwendet:

Agentensystemarchitektur

In diesem Abschnitt wird die Architektur des benutzerdefinierten SOC-Agentsystems für die vorherigen Cloud Run- oder Gemini Enterprise-Bereitstellungen beschrieben. Um komplexe Sicherheits-Workflows zu orchestrieren, verwendet der Agent ein hierarchisches Muster zur Aufgabenzerlegung. Die Zusammensetzung des Agents bleibt unabhängig von der gewählten Bereitstellungsmethode gleich.

Das folgende Diagramm zeigt eine detaillierte Ansicht der Architektur des Agentensystems: Eine detaillierte KI-Systemarchitektur für einen agentischen SecOps-Workflow.

Die Architektur umfasst die folgenden Komponenten:

Komponenten Beschreibung
Anwendung Eine Frontend-Anwendung, z. B. eine Chat-Oberfläche, die mit dem Nutzer interagiert. Sie können Ihre Anwendung mit Cloud Run oder Vertex AI Agent Engine mit Gemini Enterprise bereitstellen.
Agents

In dieser Architektur werden die folgenden Agents verwendet:

  • Root-Agent: Ein Coordinator-Agent, der Anfragen vom Nutzer erhält. Der Stamm-Agent interpretiert die Anfrage des Nutzers und versucht, sie selbst zu beantworten. Wenn für die Aufgabe spezielle Tools erforderlich sind, leitet der Stamm-Agent die Anfrage an den entsprechenden spezialisierten Agenten weiter.
  • Spezialisierte Agents: Der Root-Agent ruft die folgenden spezialisierten Agents auf:
    • Analyst der Stufe 1: Ruft Benachrichtigungsdetails ab, identifiziert betroffene Assets und extrahiert den Nutzerkontext, wenn er Google SecOps und zugehörige Telemetriequellen abfragt.
    • Cyber Threat Intelligence (CTI) Researcher: Recherchiert die Taktiken von Bedrohungsakteuren, die sich auf die jeweilige Benachrichtigung beziehen. Dieser Agent führt eine Risikobewertung der Aktivität durch, indem er Threat-Intelligence-Plattformen abfragt, um interne Indicators of Compromise (IOCs) mit bekannten Bedrohungsakteurgruppen und dokumentierten Taktiken, Techniken und Verfahren (TTPs) in Beziehung zu setzen.

Das Diagramm zur Agent-Systemarchitektur zeigt ein Beispiel für eine Architektur, in der zwei SOC-Personas verwendet werden. Je nach Ihren spezifischen Anwendungsfällen können Sie andere SOC-Personas bereitstellen oder eigene benutzerdefinierte Personas erstellen. Eine umfassendere Liste der SOC-Personas, die dazu beitragen können, Ihre Sicherheitsabläufe robuster zu machen, finden Sie unter SOC-Personas.

RAG-Wissensdatenbank Diese Datenbank dient als Grounding-Quelle für Retrieval Augmented Generation (RAG). Die Datenbank wird verwendet, um die Agents mit Incident-Response-Plänen und KI-Runbooks zu versorgen. KI-Runbooks sind präskriptive Workflows in Form von Agent Skills.
Artefaktdienst Ein verwalteter Dienst, in dem Untersuchungsberichte und Beweismittel in Cloud Storage gespeichert werden.
Memory Bank Ein System zur Verwaltung des persistenten Status, in dem benutzerdefinierte Memory-Themen gespeichert werden und mit dem KI-Agenten den Kontext zu Umgebungs- und Bedrohungsaspekten sitzungsübergreifend beibehalten können.
KI-Modelle Für die Bereitstellung von Inferenzen verwenden die Agents in dieser Architektur das neueste Gemini-Modell in Vertex AI.
MCP-Server Die MCP-Server erleichtern den Zugriff auf Tools und standardisieren die Interaktion zwischen Agents und Tools. Für jedes Agent-Tool-Paar sendet ein MCP-Client Anfragen an einen MCP-Server, über den der Agent auf ein Tool wie eine Datenbank, ein Dateisystem oder eine API zugreift.
Tools für KI-Agenten Mit diesen Tools können Kundenservicemitarbeiter Fundierungsdaten wie entsprechende KI-Runbooks,
ADK Das ADK bietet Tools und ein Framework zum Entwickeln, Testen und Bereitstellen von Agenten. Das ADK abstrahiert die Komplexität der Agentenerstellung und ermöglicht es KI-Entwicklern, sich auf die Logik und die Funktionen des Agenten zu konzentrieren.

Die Architektur zeigt den folgenden Datenfluss:

  1. Ein Sicherheitsanalyst sendet eine Anfrage an den SOC-Manager, der ein Coordinator-Kundenservicemitarbeiter ist. Ein Analyst sendet beispielsweise eine Anfrage zur Untersuchung von Fall 37.
  2. Die Anwendung, die in Cloud Run oder in Gemini Enterprise bereitgestellt wird, leitet die Anfrage an den SOC-Manager weiter.
  3. Der SOC-Manager verwendet Gemini, um die Anfrage des Nutzers zu interpretieren.
  4. Der SOC-Manager führt die folgenden Aufgaben aus, um Kontext zum Antrag zu sammeln:
    1. Sendet eine Anfrage an die RAG-Wissensdatenbank, um die entsprechenden KI-Runbooks, präskriptiven Workflows in Form von KI-Skills und den Plan zur Reaktion auf Vorfälle abzurufen.
    2. Ruft frühere Erinnerungen ab, um festzustellen, ob das Agent-System ähnliche Vorfälle analysiert hat.
    3. Prüft den Artifact Service auf vorhandene Berichte oder Beweise, die sich auf die Anfrage beziehen.
  5. Der SOC-Manager verwendet Gemini und den abgerufenen Kontext, um die Anfrage in eine Reihe von untergeordneten Aufgaben zu unterteilen und die geeigneten Tools zu identifizieren.
  6. Der SOC-Manager leitet Unteraufgaben dynamisch an spezialisierte Unter-Agents weiter, z. B. an den Tier 1-Analysten und den CTI-Researcher (Cyber Threat Intelligence).
  7. Jeder untergeordnete Agent führt die folgenden Aktionen aus, um die ihm zugewiesenen untergeordneten Aufgaben auszuführen:
    1. Gemini wird verwendet, um die Aufgabenziele zu interpretieren.
    2. Ruft relevanten Kontext aus der RAG-Wissensdatenbank, dem Speicher und Artefakten ab.
    3. Verwendet MCP-Server, um den folgenden zusätzlichen Kontext für die Fundierung von Antworten zu erfassen:
      • Wissensdokumentation wie frühere Berichte, interne Dokumentation und Playbooks.
      • Sicherheitsinformationen und Telemetrie, für die Daten aus Google SecOps und Google Threat Intelligence verwendet werden.
    4. Verwendet Gemini und den abgerufenen Kontext, um Ergebnisse zu generieren.
    5. Die Ergebnisse werden in einer strukturierten Zusammenfassung dargestellt.
    6. Leitet die Zwischenantwort an den SOC-Manager weiter.
  8. Der SOC-Manager erhält die Zwischenantworten von den untergeordneten Agents und bewertet die Ergebnisse anhand der Anforderungen des KI-Runbooks.
    1. Wenn die Ergebnisse die Bewertungskriterien nicht erfüllen, wiederholt der SOC-Manager die Analyse der Anfrage des Nutzers und delegiert Unteraufgaben an untergeordnete Kundenservicemitarbeiter, um zusätzliche Daten zu sammeln. Während dieses iterativen Ablaufs behält der SOC-Manager die vorherige Kontextkette bei, um nachfolgende Tool-Aufrufe und Subagent-Delegierungen zu informieren und zu erweitern. Der SOC-Manager setzt diesen Zyklus fort, bis die Ergebnisse den Bewertungskriterien entsprechen.
    2. Wenn die Ergebnisse die Bewertungskriterien oder eine Beendigungsbedingung wie „Maximale Anzahl von Iterationen“ erfüllen, führt der SOC-Manager die folgenden Aktionen aus:
      1. Gemini wird verwendet, um alle Ergebnisse der untergeordneten Agenten in einem Untersuchungsbericht zusammenzufassen. Der Bericht wird im Artifact Service gespeichert.
      2. Verwendet den Google SecOps-MCP-Server, um Ergebnisse in der Fallübersicht zu posten.
      3. Neue Erinnerungen werden in der Vertex AI Memory Bank gespeichert.
  9. Der SOC-Manager sendet den Artefaktlink und die Berichtszusammenfassung an den Sicherheitsanalysten zurück.

Verwendete Produkte

Die Agent-Systemarchitektur in diesem Dokument verwendet die folgenden Produkte und Tools: Google Cloud

  • Google Security Operations: Eine Plattform für Security Operations, mit der Sicherheitsteams Cyberbedrohungen erkennen, untersuchen und abwehren können.
  • Google Threat Intelligence: Eine Sicherheitslösung, die einen umfassenden und proaktiven Ansatz zur Identifizierung, Analyse und Eindämmung von Sicherheitsbedrohungen bietet.
  • Google Cloud-MCP-Server: Von Google verwaltete Remotedienste, die das Model Context Protocol (MCP) implementieren, um KI-Anwendungen Zugriff auf Google- und Google Cloud-Produkte und ‑Dienste zu ermöglichen.
  • Gemini: Eine Reihe multimodaler KI-Modelle, die von Google entwickelt wurden.
  • Vertex AI: Eine ML-Plattform, mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und LLMs für die Verwendung in KI-basierten Anwendungen anpassen können.
  • Agent Development Kit (ADK): Eine Sammlung von Tools und Bibliotheken zum Entwickeln, Testen und Bereitstellen von KI-Agenten.
  • Model Armor: Ein Dienst, der Ihre generativen und agentenbasierten KI-Ressourcen vor Prompt Injections, Lecks sensibler Daten und schädlichen Inhalten schützt.
  • Memory Bank: Ein dauerhafter Speicherdienst, der langfristige Erinnerungen basierend auf den Unterhaltungen eines Nutzers mit einem Agent generiert, verfeinert, verwaltet und abruft.
  • Cloud Storage: Ein kostengünstiger, unbegrenzter Objektspeicher für verschiedene Datentypen. Auf Daten kann von innerhalb und außerhalb von Google Cloudzugegriffen werden. Sie werden zu Redundanzzwecken über Standorte hinweg repliziert.

Informationen zum Auswählen alternativer Komponenten für Ihr agentisches KI-System, einschließlich Framework, Agent-Laufzeit, Tools, Speicher und Designmustern, finden Sie unter Komponenten für die Architektur von agentischen KI-Systemen auswählen.

Designaspekte

Beachten Sie die folgenden Empfehlungen, wenn Sie diese Architektur für die Produktion implementieren:

  • Zugriff auf Agent-Tools: Um den Tokenverbrauch zu senken und das Prinzip der geringsten Berechtigung zu erzwingen, stellen Sie verschiedenen Agents nach Bedarf Teilmengen von Tools zur Verfügung.
  • Agent-Bereich: Um die Modellgenauigkeit zu verbessern, sollten Sie die Runbooks und Systemanweisungen jedes Agents eingrenzen.
  • Verwaltung des Kontextfensters: Um den Tokenverbrauch zu minimieren, sollten Sie Prompts und Tool-Ausgaben so kurz wie möglich gestalten. RAG-Repositories und Agent-Skills verwenden, um Kontext vorzuladen und umfangreiche Tool-Antworten zusammenzufassen.
  • Prompt-Caching: Um die Kosten für Eingabetokens zu senken, können Sie statische Agent-Inhalte wie Systemanweisungen, Personas, Runbooks und Tool-Schemas im Cache speichern.
  • Modellauswahl: Das Modell, das Sie für Ihre KI-Anwendung auswählen, wirkt sich direkt auf Kosten und Leistung aus. Wählen Sie in Ihrem agentischen System verschiedene Modelle basierend auf den verschiedenen Agent-Rollen und Aufgabenanforderungen aus. Für komplexes Reasoning und die Zerlegung von Aufgaben sollten Sie ein Thinking-Modell wie Gemini Pro verwenden. Verwenden Sie für kleine und direkte Aufgaben ein schnelles, kostengünstiges Modell wie Gemini Flash.
  • MCP-Schema-Kompatibilität: Bereinigen Sie Tool-Schemas, um zu verhindern, dass das KI-Modell Tool-Definitionen falsch interpretiert und falsche Tool-Aufrufe ausführt. Erstellen Sie in sich geschlossene Konstrukte für JSON-Schema $ref und $defs und normalisieren Sie Typstrings in Großbuchstaben.
  • Authentifizierungsumgebungen: Damit die Authentifizierung in allen Umgebungen reibungslos funktioniert, müssen Sie Ihre Bereitstellungspipelines so konfigurieren, dass der Übergang von Authentifizierungsstrategien für die Entwicklung verwaltet wird. Möglicherweise müssen Sie beispielsweise von Standardanmeldedaten für Anwendungen (Application Default Credentials, ADC) bei der lokalen Ausführung zu Dienstkonten wechseln, die von Identity and Access Management (IAM) für gehostete Remote-MCP-Server in der Produktion verwaltet werden.

Bereitstellung

Wenn Sie eine Beispielimplementierung dieser Architektur bereitstellen möchten, die benutzerdefinierte SOC-Agents bietet, verwenden Sie das Agentic SOC Gemini Enterprise-Codebeispiel, das auf GitHub verfügbar ist.

Wir empfehlen, den Agenten in der folgenden Reihenfolge zu optimieren:

  1. Lokal bereitstellen mit ADK Web: Beschleunigen Sie das Prototyping und iterieren Sie schnell an der Agent-Logik.
  2. In einem lokalen Container bereitstellen: Sorgen Sie für eine portable und unveränderliche Umgebung mit konsistenten Abhängigkeiten.
  3. Container in Cloud Run oder der Vertex AI Agent Engine bereitstellen: Skalieren Sie Ihre Agenten für effektive Sicherheitsvorgänge und verschieben Sie Ihre Anwendung von der Entwicklung in die Produktion.

Nächste Schritte

Beitragende

Autoren:

Weitere Beitragende: