Questo documento descrive un'architettura di alto livello per un sistema di AI multi-agente che orchestra processi complessi di indagine e triage in un Security Operations Center (SOC). Il sistema di agenti orchestra i workflow in diversi sistemi di sicurezza, ad esempio i sistemi security information and event management (SIEM), i feed di threat intelligence, le piattaforme di gestione della security posture nel cloud (CSPM) e le soluzioni EDR (Endpoint Detection and Response). Il sistema dell'agente può eseguire queste azioni:
- Cerca avvisi critici da Google Security Operations.
- Arricchisci gli avvisi utilizzando Google Threat Intelligence.
- Cerca le configurazioni errate degli asset da uno strumento CSPM di terze parti.
- Implementa l'approvazione human-in-the-loop.
- Recupera la telemetria dettagliata degli endpoint e la cronologia di esecuzione dei processi da uno strumento EDR di terze parti per analizzare un endpoint compromesso o sospetto.
Questa architettura contribuisce a migliorare l'efficienza degli operatori riducendo il cambio di contesto e consentendo loro di eseguire indagini complesse e multifase utilizzando una singola interfaccia.
Il pubblico di destinazione di questo documento include architetti e sviluppatori che sono responsabili della progettazione, della creazione e dell'implementazione di applicazioni di AI agentica e dell'integrazione di queste applicazioni con i sistemi di sicurezza esistenti negli ambienti cloud. Il pubblico di destinazione include anche gli analisti SOC e gli amministratori di sistema che supervisionano le operazioni di sicurezza, utilizzano l'intelligence sulle minacce per la difesa proattiva e gestiscono flussi di lavoro SecOps robusti per il rilevamento, l'indagine e la risposta agli incidenti. Il documento presuppone che tu abbia una conoscenza di base dei concetti di AI agentica, inclusi sistemi multi-agente, utilizzo di strumenti agentici e orchestrazione agentica. Il documento presuppone inoltre che tu abbia familiarità con i casi d'uso della threat intelligence, i flussi di lavoro delle operazioni di sicurezza e gli strumenti di sicurezza comuni. Per informazioni su Threat Intelligence e sugli strumenti di sicurezza comuni, consulta Casi d'uso ed esempi di Threat Intelligence.
Architettura
A seconda dei tuoi requisiti, puoi scegliere i seguenti modelli di deployment:
- Deployment di Cloud Run: una piattaforma serverless completamente gestita che ti consente di eseguire il deployment dell'intera applicazione agente, di singoli componenti o di strumenti personalizzati come endpoint HTTP scalabili senza la necessità di gestire l'infrastruttura sottostante.
- Vertex AI Agent Engine con deployment di Gemini Enterprise: Un runtime completamente gestito e basato su opinioni che puoi utilizzare per eseguire il deployment, gestire e scalare applicazioni agentiche con un overhead operativo minimo.
Per informazioni su come scegliere un runtime dell'agente, vedi Scegliere i componenti dell'architettura di AI agentica.
Le seguenti schede forniscono diagrammi dell'architettura che mostrano un deployment di Cloud Run e un deployment di Vertex AI Agent Engine con Gemini Enterprise.
Cloud Run
Il seguente diagramma mostra un'architettura dettagliata per un sistema di agenti SOC che viene implementato su Cloud Run:
L'architettura mostra i seguenti componenti:
| Componenti | Descrizione |
|---|---|
| Cloud Load Balancing | Un bilanciatore del carico delle applicazioni instrada le richieste di inferenza in entrata dall'analista della sicurezza al sistema dell'agente. |
| Google Cloud Armor | Applica policy di sicurezza basate su regole del web application firewall (WAF) configurate. |
| Identity-Aware Proxy (IAP) | Applica un modello di sicurezza Zero Trust e verifica l'identità dell'utente. |
| Model Armor | Model Armor ti consente di ispezionare e sanificare prompt, interazioni con gli strumenti e risposte. Fornisce controlli di sicurezza flessibili a qualsiasi modello di AI sottostante. Per gli agenti personalizzati eseguiti su Cloud Run, integra Model Armor utilizzando l'API Model Armor. |
| Composizione dell'agente | Agent Development Kit (ADK) è un framework di sviluppo di agenti che ti aiuta a creare l'agente ed eseguirne il deployment come servizio serverless Cloud Run. Per dettagli sull'architettura interna di questo sistema di agenti, consulta la sezione Architettura del sistema di agenti più avanti in questo documento. |
| Modello di AI | Per erogare inferenze, gli agenti in questa architettura utilizzano modelli di AI su Vertex AI. |
| Server MCP |
Il
Model Context Protocol (MCP) facilita l'accesso agli strumenti e standardizza
l'interazione tra agenti e strumenti. Il sistema dell'agente utilizza i seguenti server MCP:
|
Prodotti utilizzati
Questa architettura di esempio utilizza i seguenti prodotti e strumenti Google Cloud :
- Cloud Run: una piattaforma di computing serverless che ti consente di eseguire container direttamente sull'infrastruttura scalabile di Google.
- Cloud Load Balancing: un portafoglio di bilanciatori del carico scalabili, globali e regionali ad alte prestazioni.
- Google Cloud Armor: un servizio di sicurezza di rete che offre regole WAF (web application firewall) e aiuta a proteggere da attacchi DDoS e alle applicazioni.
- Identity-Aware Proxy (IAP): un servizio che consente un modello di accesso Zero Trust per le tue applicazioni e macchine virtuali.
- Google Security Operations: una piattaforma di operazioni di sicurezza che aiuta i team di sicurezza a rilevare, analizzare e rispondere alle minacce informatiche.
- Google Threat Intelligence: una soluzione di sicurezza che fornisce un approccio completo e proattivo per identificare, analizzare e mitigare le minacce alla sicurezza.
- Server MCP Google Cloud: servizi remoti gestiti da Google che implementano il Model Context Protocol (MCP) per fornire alle applicazioni AI l'accesso a prodotti e servizi Google e Google Cloud.
- Gemini: una famiglia di modelli di AI multimodale sviluppati da Google.
- Vertex AI: una piattaforma ML che ti consente di addestrare ed eseguire il deployment di modelli ML e applicazioni AI e personalizzare LLM da utilizzare nelle applicazioni basate sull'AI.
- Agent Development Kit (ADK): un insieme di strumenti e librerie per sviluppare, testare e implementare agenti AI.
- Model Armor: un servizio che fornisce protezione per le tue risorse di AI generativa e agentica contro prompt injection, fughe di dati sensibili e contenuti dannosi.
Vertex AI Agent Engine con Gemini Enterprise
Il seguente diagramma mostra un'architettura dettagliata per un sistema di AI dell'agente SOC di cui è stato eseguito il deployment su Vertex AI Agent Engine con Gemini Enterprise:
Il diagramma dell'architettura mostra i seguenti componenti:
| Componenti | Descrizione |
|---|---|
| Gemini Enterprise | Gli utenti interagiscono con il sistema di agenti tramite l'assistente di chat fornito da Gemini Enterprise. |
| Composizione dell'agente | Agent Development Kit (ADK) è un framework di sviluppo di agenti che ti aiuta a creare un agente personalizzato, a eseguirne il deployment su Vertex AI Agent Engine e a registrarlo in Gemini Enterprise. Per informazioni dettagliate sull'architettura interna di questo sistema di agenti, consulta la sezione Architettura del sistema di agenti più avanti in questo documento. |
| Modello di AI | Gli agenti in questa architettura utilizzano modelli di AI di Vertex AI Model Garden per eseguire l'inferenza. |
| Model Armor | Per applicare le norme di sicurezza e conformità aziendali, Model Armor si integra direttamente con i servizi Google Cloud per fornire ispezione e sanitizzazione inline dei prompt degli utenti e delle risposte del modello. Grazie all'integrazione integrata con Gemini Enterprise e Vertex AI, Model Armor esamina automaticamente le interazioni tra gli utenti e gli agenti gestiti. Per saperne di più, consulta Integrazione di Model Armor con i servizi Google Cloud . |
| Server MCP |
Il
Model Context Protocol (MCP)
facilita l'accesso agli strumenti e standardizza l'interazione tra agenti e
strumenti. Il sistema dell'agente utilizza i seguenti server MCP:
|
Prodotti utilizzati
Questa architettura di esempio utilizza i seguenti prodotti e strumenti Google Cloud :
- Vertex AI Agent Engine: una piattaforma che ti consente di eseguire, gestire e scalare gli agenti AI in produzione.
- Gemini Enterprise: una piattaforma sicura completamente gestita per eseguire il deployment e gestire agenti AI all'interno di un'azienda.
- Google Security Operations: una piattaforma di operazioni di sicurezza che aiuta i team di sicurezza a rilevare, analizzare e rispondere alle minacce informatiche.
- Google Threat Intelligence: una soluzione di sicurezza che fornisce un approccio completo e proattivo per identificare, analizzare e mitigare le minacce alla sicurezza.
- Server MCP Google Cloud: servizi remoti gestiti da Google che implementano il Model Context Protocol (MCP) per fornire alle applicazioni AI l'accesso a prodotti e servizi Google e Google Cloud.
- Gemini: una famiglia di modelli di AI multimodale sviluppati da Google.
- Vertex AI: una piattaforma ML che ti consente di addestrare ed eseguire il deployment di modelli ML e applicazioni AI e personalizzare LLM da utilizzare nelle applicazioni basate sull'AI.
- Agent Development Kit (ADK): un insieme di strumenti e librerie per sviluppare, testare e implementare agenti AI.
- Model Armor: un servizio che fornisce protezione per le tue risorse di AI generativa e agentica contro prompt injection, fughe di dati sensibili e contenuti dannosi.
Architettura del sistema dell'agente
Questa sezione descrive l'architettura del sistema di agenti SOC personalizzati per i deployment Cloud Run o Gemini Enterprise precedenti. Per orchestrare workflow di sicurezza complessi, l'agente utilizza un pattern di scomposizione gerarchica delle attività. La composizione dell'agente rimane coerente, indipendentemente dal metodo di deployment che scegli.
Il seguente diagramma mostra una visualizzazione dettagliata dell'architettura del sistema dell'agente:
L'architettura mostra i seguenti componenti:
| Componenti | Descrizione |
|---|---|
| Applicazione | Un'applicazione frontend, ad esempio un'interfaccia di chat, che interagisce con l'utente. Puoi scegliere di eseguire il deployment della tua applicazione con Cloud Run o Vertex AI Agent Engine con Gemini Enterprise. |
| Agenti |
Questa architettura utilizza i seguenti agenti:
Il diagramma dell'architettura del sistema dell'agente mostra un'architettura di esempio che utilizza due persona SOC. A seconda dei tuoi casi d'uso specifici, puoi implementare altre buyer persona SOC o creare buyer persona personalizzate. Per un elenco più ampio di profili SOC che possono contribuire a rendere più solide le tue operazioni di sicurezza, consulta Profili SOC. |
| Database di conoscenze RAG | Questo database fornisce un'origine di base per la generazione RAG (Retrieval-Augmented Generation). Il database viene utilizzato per fornire agli agenti piani di risposta agli incidenti e runbook AI. I runbook AI sono workflow prescrittivi sotto forma di abilità dell'agente. |
| Servizio artefatti | Un servizio gestito che archivia i report e le prove delle indagini in Cloud Storage. |
| Memory Bank | Un sistema di gestione dello stato persistente che archivia argomenti di memoria personalizzati e consente agli agenti di mantenere il contesto ambientale e delle minacce nelle varie sessioni. |
| Modelli di AI | Per eseguire l'inferenza, gli agenti in questa architettura utilizzano l'ultimo modello Gemini su Vertex AI. |
| Server MCP | I server MCP facilitano l'accesso agli strumenti e standardizzano l'interazione tra agenti e strumenti. Per ogni coppia agente-strumento, un client MCP invia richieste a un server MCP tramite il quale l'agente accede a uno strumento, ad esempio un database, un file system o un'API. |
| Strumenti agente | Questi strumenti consentono agli agenti di recuperare dati di grounding, come runbook AI corrispondenti, piani di risposta agli incidenti, report precedenti, documentazione interna e playbook. |
| ADK | ADK fornisce strumenti e un framework per sviluppare, testare ed eseguire il deployment di agenti. ADK astrae la complessità della creazione di agenti e consente agli sviluppatori di AI di concentrarsi sulla logica e sulle funzionalità dell'agente. |
L'architettura mostra il seguente flusso di dati:
- Un analista della sicurezza invia una richiesta al responsabile del SOC, che è un agente coordinatore. Ad esempio, un analista invia una richiesta per esaminare il caso n. 37.
- L'applicazione di cui è stato eseguito il deployment su Cloud Run o su Gemini Enterprise instrada la richiesta al gestore SOC.
- Il responsabile del SOC utilizza Gemini per interpretare la richiesta dell'utente.
- Il responsabile del SOC esegue le seguenti attività per raccogliere il contesto della
richiesta:
- Invia una query al database delle conoscenze RAG per recuperare i runbook AI corrispondenti, i flussi di lavoro prescrittivi sotto forma di abilità AI e il piano di risposta agli incidenti.
- Recupera i ricordi precedenti per identificare se il sistema dell'agente ha analizzato incidenti simili.
- Controlla il servizio artefatti per eventuali report o prove esistenti relativi alla richiesta.
- Il responsabile del SOC utilizza Gemini e il contesto recuperato per suddividere la richiesta in una sequenza di attività secondarie e identificare gli strumenti appropriati.
- Il gestore del SOC indirizza dinamicamente le attività secondarie a subagenti specializzati, come l'analista di livello 1 e il ricercatore di Cyber Threat Intelligence (CTI).
- Ogni subagente esegue le seguenti azioni per eseguire le sottotività assegnate:
- Utilizza Gemini per interpretare gli obiettivi dell'attività.
- Recupera il contesto pertinente dal database delle conoscenze, dai ricordi e dagli artefatti della RAG.
- Utilizza i server MCP per raccogliere il seguente contesto aggiuntivo per basare
le risposte:
- Documentazione delle conoscenze, come report precedenti, documentazione interna e playbook.
- Intelligence e telemetria per la sicurezza che utilizzano i dati di Google SecOps e Google Threat Intelligence.
- Utilizza Gemini e il contesto recuperato per generare risultati.
- Raccoglie i risultati in un riepilogo strutturato.
- Inoltra la risposta intermedia al responsabile del SOC.
- Il responsabile del SOC riceve le risposte intermedie dai subagenti e valuta i risultati in base ai requisiti del runbook AI.
- Se i risultati non soddisfano i criteri di valutazione, il responsabile del SOC ripete l'analisi della richiesta dell'utente e delega i sottotitoli ai subagenti per raccogliere dati aggiuntivi. Durante questo ciclo iterativo, il responsabile del SOC mantiene la catena di contesto precedente per informare e aumentare le chiamate successive agli strumenti e le deleghe dei subagenti. Il responsabile del SOC continua questo ciclo finché i risultati non soddisfano i criteri di valutazione.
- Se i risultati soddisfano i criteri di valutazione o una condizione di uscita, ad esempio
il numero massimo di iterazioni, il responsabile del SOC esegue le seguenti azioni:
- Utilizza Gemini per sintetizzare tutti i risultati dei subagenti in un report di indagine e salva il report nel servizio artefatti.
- Utilizza il server MCP Google SecOps per pubblicare i risultati nella bacheca della richiesta.
- Salva nuove memorie nel Memory Bank di Vertex AI.
- Il responsabile del SOC invia il link all'artefatto e il riepilogo del report all'analista della sicurezza.
Prodotti utilizzati
L'architettura del sistema dell'agente in questo documento utilizza i seguenti Google Cloud prodotti e strumenti:
- Google Security Operations: una piattaforma di operazioni di sicurezza che aiuta i team di sicurezza a rilevare, analizzare e rispondere alle minacce informatiche.
- Google Threat Intelligence: una soluzione di sicurezza che fornisce un approccio completo e proattivo per identificare, analizzare e mitigare le minacce alla sicurezza.
- Server MCP Google Cloud: servizi remoti gestiti da Google che implementano il Model Context Protocol (MCP) per fornire alle applicazioni AI l'accesso a prodotti e servizi Google e Google Cloud.
- Gemini: una famiglia di modelli di AI multimodale sviluppati da Google.
- Vertex AI: una piattaforma ML che ti consente di addestrare ed eseguire il deployment di modelli ML e applicazioni AI e personalizzare LLM da utilizzare nelle applicazioni basate sull'AI.
- Agent Development Kit (ADK): un insieme di strumenti e librerie per sviluppare, testare e implementare agenti AI.
- Model Armor: un servizio che fornisce protezione per le tue risorse di AI generativa e agentica contro prompt injection, fughe di dati sensibili e contenuti dannosi.
- Memory Bank: un servizio di archiviazione persistente che genera, perfeziona, gestisce e recupera ricordi a lungo termine in base alle conversazioni di un utente con un agente.
- Cloud Storage: uno spazio di archiviazione di oggetti a basso costo e senza limiti per diversi tipi di dati. I dati sono accessibili dall'interno e dall'esterno di Google Cloude vengono replicati in più località per la ridondanza.
Per informazioni su come selezionare componenti alternativi per il tuo sistema di AI agentica, inclusi framework, runtime dell'agente, strumenti, memoria e pattern di progettazione, consulta Scegliere i componenti dell'architettura di AI agentica.
Considerazioni sulla progettazione
Per implementare questa architettura per la produzione, considera i seguenti consigli:
- Accesso agli strumenti dell'agente: per ridurre il consumo di token e applicare il principio del privilegio minimo, fornisci sottoinsiemi di strumenti a diversi agenti in base alle necessità.
- Definizione dell'ambito dell'agente: per migliorare l'accuratezza del modello, definisci l'ambito dei runbook e delle istruzioni di sistema di ogni agente.
- Gestione della finestra contestuale: per ridurre al minimo il consumo di token, progetta prompt e output degli strumenti in modo che siano concisi. Utilizza i repository RAG e le competenze dell'agente per precaricare il contesto e riassumere le risposte degli strumenti di grandi dimensioni.
- Memorizzazione nella cache dei prompt: per ridurre i costi dei token di input, memorizza nella cache i contenuti statici dell'agente, come istruzioni di sistema, persona, runbook e schema degli strumenti.
- Selezione del modello: il modello che selezioni per la tua applicazione AI influisce direttamente su costi e rendimento. Seleziona modelli diversi nel tuo sistema agentico in base ai diversi ruoli dell'agente e ai requisiti dell'attività. Per il ragionamento complesso e la scomposizione delle attività, utilizza un modello di ragionamento come Gemini Pro. Per attività piccole e dirette, utilizza un modello veloce ed economico come Gemini Flash.
- Compatibilità dello schema MCP: per evitare che il modello di AI interpreti erroneamente
le definizioni degli strumenti ed esegua chiamate errate, pulisci gli schemi degli strumenti.
Crea costrutti autonomi per JSON Schema
$refe$defse normalizza le stringhe di tipo in maiuscolo. - Ambienti di autenticazione: per garantire un'autenticazione senza interruzioni tra gli ambienti, configura le pipeline di deployment per gestire la transizione dalle strategie di autenticazione di sviluppo. Ad esempio, potresti dover eseguire la transizione dalle credenziali predefinite dell'applicazione (ADC) nell'esecuzione locale ai service account gestiti da Identity and Access Management (IAM) per i server MCP remoti ospitati in produzione.
Deployment
Per eseguire il deployment di un'implementazione di esempio di questa architettura che fornisce agenti SOC personalizzati, utilizza l'esempio di codice Agentic SOC Gemini Enterprise disponibile su GitHub.
Ti consigliamo di eseguire l'iterazione dell'agente nel seguente ordine:
- Esegui il deployment localmente con ADK web: accelera la prototipazione e itera rapidamente sulla logica dell'agente.
- Esegui il deployment in un container locale: garantisci un ambiente portabile e immutabile con dipendenze coerenti.
- Esegui il deployment del container in Cloud Run o Vertex AI Agent Engine: scala gli agenti per operazioni di sicurezza efficaci e sposta l'applicazione dallo sviluppo alla produzione.
Passaggi successivi
- Scopri come ospitare agenti AI su Cloud Run
- Scopri di più sulla sicurezza con l'AI generativa.
- Scopri di più sulla panoramica della sicurezza di Gemini Enterprise.
- Scopri come creare un sistema di AI multi-agente in Google Cloud.
- Collega gli agenti ai dati di Google SecOps utilizzando il server MCP di Google SecOps.
- Consulta la prospettiva di sicurezza nel Google Cloud Well-Architected Framework.
- Per ulteriori architetture di riferimento, diagrammi e best practice, esplora Cloud Architecture Center.
Collaboratori
Autori:
- Ben Perel | Specialista della sicurezza
- Daniel Dye | Ingegnere AI SecOps
Altri collaboratori:
- Amr Abdelrazik | Group Product Manager
- Kumar Dhanagopal | Cross-Product Solution Developer
- Samantha He | Technical Writer