Ce document décrit une architecture de haut niveau pour un système d'IA multi-agents qui orchestre des processus complexes d'investigation et de triage dans un centre des opérations de sécurité (SOC). Le système d'agents orchestre les workflows dans différents systèmes de sécurité, tels que les systèmes de gestion des informations et des événements de sécurité (SIEM), les flux de renseignements sur les menaces, les plates-formes de gestion de la posture de sécurité cloud (CSPM) et les solutions de détection et réponse aux points de terminaison (EDR). Le système d'agents peut effectuer les actions suivantes :
- Recherchez les alertes critiques de Google Security Operations.
- Enrichissez les alertes à l'aide de Google Threat Intelligence.
- Recherchez les erreurs de configuration des composants à partir d'un outil CSPM tiers.
- Implémentez l'approbation human-in-the-loop.
- Récupérez des données de télémétrie détaillées sur les points de terminaison et l'historique d'exécution des processus à partir d'un outil EDR tiers pour examiner un point de terminaison compromis ou suspect.
Cette architecture permet d'améliorer l'efficacité des opérateurs en réduisant le changement de contexte et en leur permettant d'effectuer des investigations complexes en plusieurs étapes à l'aide d'une seule interface.
Ce document s'adresse aux architectes et aux développeurs chargés de concevoir, de créer et d'implémenter des applications d'IA agentique, ainsi que d'intégrer ces applications aux systèmes de sécurité existants dans les environnements cloud. L'audience visée inclut également les analystes SOC et les administrateurs système qui supervisent les opérations de sécurité, utilisent les renseignements sur les menaces pour une défense proactive et gèrent des workflows SecOps robustes pour la détection, l'investigation et la réponse aux incidents. Dans ce document, nous partons du principe que vous avez déjà acquis les connaissances de base sur les concepts d'IA agentique, y compris les systèmes multi-agents, l'utilisation d'outils agentiques et l'orchestration agentique. Ce document suppose également que vous connaissez les cas d'utilisation des renseignements sur les menaces, les workflows des opérations de sécurité et les outils de sécurité courants. Pour en savoir plus sur les renseignements sur les menaces et les outils de sécurité courants, consultez Cas d'utilisation et exemples de renseignements sur les menaces.
Architecture
Selon vos besoins, vous pouvez choisir les modèles de déploiement suivants :
- Déploiement Cloud Run : plate-forme sans serveur entièrement gérée qui vous permet de déployer l'intégralité de l'application d'agent, des composants individuels ou des outils personnalisés en tant que points de terminaison HTTP évolutifs, sans avoir à gérer l'infrastructure sous-jacente.
- Déploiement de Vertex AI Agent Engine avec Gemini Enterprise : un environnement d'exécution entièrement géré et orienté qui vous permet de déployer, d'exploiter et de faire évoluer des applications agentiques avec une surcharge opérationnelle minimale.
Pour savoir comment choisir un environnement d'exécution d'agent, consultez Choisir les composants de l'architecture de votre IA agentive.
Les onglets suivants fournissent des schémas d'architecture qui montrent un déploiement Cloud Run et un déploiement Vertex AI Agent Engine avec Gemini Enterprise.
Cloud Run
Le schéma suivant illustre une architecture détaillée pour un système d'agent SOC déployé sur Cloud Run :
L'architecture montre les composants suivants :
| Composants | Description |
|---|---|
| Cloud Load Balancing | Un équilibreur de charge d'application achemine les requêtes d'inférence entrantes de l'analyste de sécurité vers le système d'agent. |
| Google Cloud Armor | Applique les règles de sécurité en fonction des règles de pare-feu d'application Web (WAF) configurées. |
| Identity-Aware Proxy (IAP) | Applique un modèle de sécurité "zéro confiance" et vérifie l'identité de l'utilisateur. |
| Model Armor | Model Armor vous permet d'inspecter et de nettoyer les requêtes, les interactions avec les outils et les réponses. Il fournit des contrôles de sécurité flexibles à n'importe quel modèle d'IA sous-jacent. Pour les agents personnalisés qui s'exécutent sur Cloud Run, intégrez Model Armor à l'aide de l'API Model Armor. |
| Composition de l'agent | L'Agent Development Kit (ADK) est un framework de développement d'agents qui vous aide à créer l'agent et à le déployer en tant que service Cloud Run sans serveur. Pour en savoir plus sur l'architecture interne de ce système d'agents, consultez la section Architecture du système d'agents plus loin dans ce document. |
| Modèle d'IA | Pour diffuser l'inférence, les agents de cette architecture utilisent des modèles d'IA sur Vertex AI. |
| Serveurs MCP |
Le
Model Context Protocol (MCP) facilite l'accès aux outils et standardise l'interaction entre les agents et les outils. Le système d'agent utilise les serveurs MCP suivants :
|
Produits utilisés
Cette architecture d'exemple utilise les produits et outils suivants : Google Cloud
- Cloud Run : plate-forme de calcul gérée qui vous permet d'exécuter des conteneurs directement sur l'infrastructure évolutive de Google.
- Cloud Load Balancing : portefeuille d'équilibreurs de charge hautes performances, évolutifs, mondiaux et régionaux.
- Google Cloud Armor : service de sécurité réseau qui propose des règles de pare-feu d'application Web (WAF) et aide à se protéger contre les attaques DDoS et d'applications.
- Identity-Aware Proxy (IAP) : service qui permet d'adopter un modèle d'accès zéro confiance pour vos applications et vos machines virtuelles.
- Google Security Operations : plate-forme d'opérations de sécurité qui aide les équipes de sécurité à détecter les cybermenaces, à les analyser et à y répondre.
- Google Threat Intelligence : solution de sécurité qui offre une approche complète et proactive pour identifier, analyser et atténuer les menaces de sécurité.
- Serveurs MCP Google Cloud : services distants gérés par Google qui implémentent le protocole MCP (Model Context Protocol) pour permettre aux applications d'IA d'accéder aux produits et services Google et Google Cloud.
- Gemini: famille de modèles d'IA multimodaux développés par Google.
- Vertex AI : plate-forme de ML qui vous permet d'entraîner et de déployer des modèles de ML et des applications d'IA, et de personnaliser les LLM à utiliser dans des applications basées sur l'IA.
- Agent Development Kit (ADK) : ensemble d'outils et de bibliothèques permettant de développer, tester et déployer des agents d'IA.
- Model Armor : service qui protège vos ressources d'IA générative et agentive contre l'injection de prompt, les fuites de données sensibles et les contenus nuisibles.
Vertex AI Agent Engine avec Gemini Enterprise
Le schéma suivant illustre une architecture détaillée pour un système d'IA d'agent SOC déployé sur Vertex AI Agent Engine avec Gemini Enterprise :
Le schéma d'architecture montre les composants suivants :
| Composants | Description |
|---|---|
| Gemini Enterprise | Les utilisateurs interagissent avec le système d'agents via l'assistant de chat fourni par Gemini Enterprise. |
| Composition de l'agent | L'Agent Development Kit (ADK) est un framework de développement d'agents qui vous aide à créer un agent personnalisé, à le déployer sur Vertex AI Agent Engine et à l'enregistrer auprès de Gemini Enterprise. Pour en savoir plus sur l'architecture interne de ce système d'agents, consultez la section Architecture du système d'agents plus loin dans ce document. |
| Modèle d'IA | Les agents de cette architecture utilisent des modèles d'IA de Vertex AI Model Garden pour effectuer l'inférence. |
| Model Armor | Pour appliquer les règles de sécurité et de conformité de l'entreprise, Model Armor s'intègre directement aux services Google Cloud pour fournir une inspection et une désinfection en ligne des requêtes utilisateur et des réponses du modèle. Grâce à l'intégration à Gemini Enterprise et Vertex AI, Model Armor filtre automatiquement les interactions entre les utilisateurs et les agents gérés. Pour en savoir plus, consultez Intégration de Model Armor aux services Google Cloud . |
| Serveurs MCP |
Le Model Context Protocol (MCP) facilite l'accès aux outils et standardise l'interaction entre les agents et les outils. Le système d'agent utilise les serveurs MCP suivants :
|
Produits utilisés
Cette architecture d'exemple utilise les produits et outils suivants : Google Cloud
- Vertex AI Agent Engine : plate-forme qui vous permet d'exécuter, de gérer et de faire évoluer des agents IA en production.
- Gemini Enterprise : plate-forme sécurisée entièrement gérée permettant de déployer et de gérer des agents IA dans une entreprise.
- Google Security Operations : plate-forme d'opérations de sécurité qui aide les équipes de sécurité à détecter les cybermenaces, à les analyser et à y répondre.
- Google Threat Intelligence : solution de sécurité qui offre une approche complète et proactive pour identifier, analyser et atténuer les menaces de sécurité.
- Serveurs MCP Google Cloud : services distants gérés par Google qui implémentent le protocole MCP (Model Context Protocol) pour permettre aux applications d'IA d'accéder aux produits et services Google et Google Cloud.
- Gemini: famille de modèles d'IA multimodaux développés par Google.
- Vertex AI : plate-forme de ML qui vous permet d'entraîner et de déployer des modèles de ML et des applications d'IA, et de personnaliser les LLM à utiliser dans des applications basées sur l'IA.
- Agent Development Kit (ADK) : ensemble d'outils et de bibliothèques permettant de développer, tester et déployer des agents d'IA.
- Model Armor : service qui protège vos ressources d'IA générative et agentive contre l'injection de prompt, les fuites de données sensibles et les contenus nuisibles.
Architecture du système d'agent
Cette section décrit l'architecture du système d'agent SOC personnalisé pour les déploiements Cloud Run ou Gemini Enterprise précédents. Pour orchestrer des workflows de sécurité complexes, l'agent utilise un modèle de décomposition hiérarchique des tâches. La composition de l'agent reste cohérente, quelle que soit la méthode de déploiement que vous choisissez.
Le schéma suivant présente une vue détaillée de l'architecture du système d'agent :
L'architecture montre les composants suivants :
| Composants | Description |
|---|---|
| Application | Application frontend, telle qu'une interface de chat, qui interagit avec l'utilisateur. Vous pouvez choisir de déployer votre application avec Cloud Run ou Vertex AI Agent Engine avec Gemini Enterprise. |
| Agents |
Cette architecture utilise les agents suivants :
Le schéma de l'architecture du système d'agent montre un exemple d'architecture qui utilise deux personas SOC. Selon vos cas d'utilisation spécifiques, vous pouvez déployer d'autres personas SOC ou créer vos propres personas personnalisés. Pour obtenir une liste plus complète des rôles SOC qui peuvent vous aider à renforcer vos opérations de sécurité, consultez Personas SOC. |
| Base de connaissances RAG | Cette base de données fournit une source d'ancrage pour la génération augmentée par récupération (RAG). La base de données est utilisée pour fournir aux agents des plans de réponse aux incidents et des runbooks d'IA. Les runbooks d'IA sont des workflows prescriptifs sous la forme de compétences d'agent. |
| Service d'artefacts | Service géré qui stocke les rapports d'investigation et les preuves dans Cloud Storage. |
| Memory Bank | Système de gestion de l'état persistant qui stocke des thèmes de mémoire personnalisés et permet aux agents de conserver le contexte environnemental et de menace d'une session à l'autre. |
| Modèles d'IA | Pour diffuser l'inférence, les agents de cette architecture utilisent le dernier modèle Gemini sur Vertex AI. |
| Serveurs MCP | Les serveurs MCP facilitent l'accès aux outils et standardisent l'interaction entre les agents et les outils. Pour chaque paire agent-outil, un client MCP envoie des requêtes à un serveur MCP par le biais duquel l'agent accède à un outil, tel qu'une base de données, un système de fichiers ou une API. |
| Outils d'agent | Ces outils permettent aux agents de récupérer des données d'ancrage, telles que des runbooks d'IA correspondants, des plans de réponse aux incidents, des rapports précédents, de la documentation interne et des playbooks. |
| ADK | L'ADK fournit des outils et un framework pour développer, tester et déployer des agents. ADK élimine la complexité de la création d'agents et permet aux développeurs d'IA de se concentrer sur la logique et les capacités de l'agent. |
L'architecture présente le flux de données suivant :
- Un analyste de la sécurité envoie une demande au responsable du SOC, qui est un agent coordinateur. Par exemple, un analyste envoie une demande pour examiner la demande n° 37.
- L'application déployée sur Cloud Run ou sur Gemini Enterprise achemine la demande au responsable SOC.
- Le responsable SOC utilise Gemini pour interpréter la demande de l'utilisateur.
- Le responsable SOC effectue les tâches suivantes pour recueillir des informations sur la demande :
- Envoie une requête à la base de connaissances RAG pour extraire les runbooks d'IA correspondants, les workflows prescriptifs sous forme de compétences d'IA et le plan de réponse aux incidents.
- Récupère les souvenirs précédents pour déterminer si le système d'agent a analysé des incidents similaires.
- Vérifie le service d'artefacts pour trouver des rapports ou des preuves existants en lien avec la demande.
- Le responsable SOC utilise Gemini et le contexte qu'il a récupéré pour décomposer la demande en une séquence de sous-tâches et identifier les outils appropriés.
- Le responsable du SOC dirige dynamiquement les sous-tâches vers des sous-agents spécialisés, tels que l'analyste de niveau 1 et le chercheur en cyberintelligence (CTI).
- Chaque sous-agent effectue les actions suivantes pour exécuter les sous-tâches qui lui sont attribuées :
- Utilise Gemini pour interpréter les objectifs de la tâche.
- Extrait le contexte pertinent de la base de connaissances, des souvenirs et des artefacts RAG.
- Utilise des serveurs MCP pour recueillir le contexte supplémentaire suivant afin d'ancrer les réponses :
- Documentation sur les connaissances, comme les rapports précédents, la documentation interne et les manuels.
- Informations de sécurité et télémétrie utilisant les données de Google SecOps et Google Threat Intelligence.
- Utilise Gemini et le contexte qu'il a récupéré pour générer des résultats.
- regroupe ses conclusions dans un résumé structuré.
- Transmet la réponse intermédiaire au gestionnaire SOC.
- Le responsable du SOC reçoit les réponses intermédiaires des sous-agents et évalue les résultats par rapport aux exigences du runbook d'IA.
- Si les résultats ne répondent pas aux critères d'évaluation, le responsable SOC répète son analyse de la demande de l'utilisateur et délègue des sous-tâches à des sous-agents pour collecter des données supplémentaires. Au cours de cette boucle itérative, le responsable SOC conserve la chaîne de contexte précédente pour informer et augmenter les appels d'outils et les délégations de sous-agents ultérieurs. Le responsable SOC poursuit cette boucle jusqu'à ce que les résultats répondent aux critères d'évaluation.
- Si les résultats répondent aux critères d'évaluation ou à une condition de sortie, comme le nombre maximal d'itérations, le responsable SOC effectue les actions suivantes :
- Utilise Gemini pour synthétiser toutes les conclusions des sous-agents dans un rapport d'investigation et enregistre le rapport dans le service d'artefacts.
- Utilise le serveur MCP Google SecOps pour publier les résultats sur le mur des cas.
- Enregistre les nouvelles mémoires dans Vertex AI Memory Bank.
- Le responsable SOC renvoie le lien vers l'artefact et le résumé du rapport à l'analyste de sécurité.
Produits utilisés
L'architecture système de l'agent décrite dans ce document utilise les produits et outils suivants : Google Cloud
- Google Security Operations : plate-forme d'opérations de sécurité qui aide les équipes de sécurité à détecter les cybermenaces, à les analyser et à y répondre.
- Google Threat Intelligence : solution de sécurité qui offre une approche complète et proactive pour identifier, analyser et atténuer les menaces de sécurité.
- Serveurs MCP Google Cloud : services distants gérés par Google qui implémentent le protocole MCP (Model Context Protocol) pour permettre aux applications d'IA d'accéder aux produits et services Google et Google Cloud.
- Gemini: famille de modèles d'IA multimodaux développés par Google.
- Vertex AI : plate-forme de ML qui vous permet d'entraîner et de déployer des modèles de ML et des applications d'IA, et de personnaliser les LLM à utiliser dans des applications basées sur l'IA.
- Agent Development Kit (ADK) : ensemble d'outils et de bibliothèques permettant de développer, tester et déployer des agents d'IA.
- Model Armor : service qui protège vos ressources d'IA générative et agentive contre l'injection de prompt, les fuites de données sensibles et les contenus nuisibles.
- Memory Bank : service de stockage persistant qui génère, affine, gère et récupère les souvenirs à long terme en fonction des conversations d'un utilisateur avec un agent.
- Cloud Storage : store d'objets économique et sans limite pour tout type de données. Les données sont accessibles depuis et en dehors de Google Cloud, et sont répliquées sur plusieurs emplacements à des fins de redondance.
Pour savoir comment sélectionner d'autres composants pour votre système d'IA agentive, y compris le framework, l'environnement d'exécution de l'agent, les outils, la mémoire et les modèles de conception, consultez Choisir les composants de votre architecture d'IA agentive.
Considérations de conception
Pour implémenter cette architecture en production, tenez compte des recommandations suivantes :
- Accès aux outils de l'agent : pour réduire la consommation de jetons et appliquer le principe du moindre privilège, fournissez des sous-ensembles d'outils à différents agents selon les besoins.
- Définition du champ d'application de l'agent : pour améliorer la précision du modèle, définissez le champ d'application des runbooks et des instructions système de chaque agent.
- Gestion de la fenêtre de contexte : pour minimiser la consommation de jetons, concevez des requêtes et des sorties d'outils concises. Utilisez des dépôts RAG et des compétences d'agent pour précharger le contexte et résumer les réponses volumineuses des outils.
- Mise en cache des requêtes : pour réduire les coûts liés aux jetons d'entrée, mettez en cache le contenu statique de l'agent, comme les instructions système, les personas, les runbooks et le schéma d'outil.
- Sélection du modèle : le modèle que vous sélectionnez pour votre application d'IA a un impact direct sur les coûts et les performances. Sélectionnez différents modèles dans votre système agentique en fonction des différents rôles d'agent et des exigences des tâches. Pour le raisonnement complexe et la décomposition des tâches, utilisez un modèle de réflexion tel que Gemini Pro. Pour les tâches simples et directes, utilisez un modèle rapide et peu coûteux comme Gemini Flash.
- Compatibilité du schéma MCP : pour éviter que le modèle d'IA n'interprète mal les définitions d'outils et n'effectue des appels d'outils incorrects, nettoyez les schémas d'outils.
Créez des constructions autonomes pour les schémas JSON
$refet$defs, et normalisez les chaînes de type en majuscules. - Environnements d'authentification : pour assurer une authentification fluide dans tous les environnements, configurez vos pipelines de déploiement afin de gérer la transition à partir des stratégies d'authentification de développement. Par exemple, vous devrez peut-être passer des identifiants par défaut de l'application (ADC) lors de l'exécution locale aux comptes de service gérés par Identity and Access Management (IAM) pour les serveurs MCP distants hébergés en production.
Déploiement
Pour déployer un exemple d'implémentation de cette architecture qui fournit des agents SOC personnalisés, utilisez l'exemple de code Agentic SOC Gemini Enterprise disponible sur GitHub.
Nous vous recommandons d'itérer sur votre agent dans l'ordre suivant :
- Déployez en local avec ADK Web : accélérez le prototypage et itérez rapidement sur la logique de l'agent.
- Déployer dans un conteneur local : assurez-vous de disposer d'un environnement portable et immuable avec des dépendances cohérentes.
- Déployez le conteneur sur Cloud Run ou Vertex AI Agent Engine : faites évoluer vos agents pour des opérations de sécurité efficaces et passez de la phase de développement à la phase de production pour votre application.
Étapes suivantes
- Découvrez comment héberger des agents d'IA sur Cloud Run.
- En savoir plus sur la sécurité avec l'IA générative
- En savoir plus sur la présentation de la sécurité de Gemini Enterprise
- Découvrez comment créer un système d'IA multi-agent dans Google Cloud.
- Connectez les agents aux données Google SecOps à l'aide du serveur MCP Google SecOps.
- Consultez la perspective de sécurité dans le Google Cloud Well-Architected Framework.
- Pour découvrir d'autres architectures de référence, schémas et bonnes pratiques, consultez le Centre d'architecture cloud.
Contributeurs
Auteurs :
- Ben Perel | Spécialiste en sécurité
- Daniel Dye | Ingénieur IA SecOps
Autres contributeurs :
- Amr Abdelrazik | Responsable groupe de produits
- Kumar Dhanagopal Développeur de solutions multiproduits
- Samantha He | Rédactrice technique