Neste documento, descrevemos uma arquitetura de alto nível para um sistema de IA multiagente que orquestra processos complexos de investigação e triagem em uma central de operações de segurança (SOC). O sistema de agentes orquestra fluxos de trabalho em diferentes sistemas de segurança, como sistemas de gerenciamento de eventos e informações de segurança (SIEM), feeds de inteligência contra ameaças, plataformas de gerenciamento de postura de segurança na nuvem (CSPM) e soluções de detecção e resposta de endpoints (EDR). O sistema do agente pode realizar estas ações:
- Procure alertas críticos do Google Security Operations.
- Enriqueça os alertas usando o Google Threat Intelligence.
- Pesquise erros de configuração de recursos em uma ferramenta CSPM de terceiros.
- Implemente a aprovação human-in-the-loop.
- Recupere a telemetria detalhada do endpoint e o histórico de execução de processos de uma ferramenta EDR de terceiros para investigar um endpoint comprometido ou suspeito.
Essa arquitetura ajuda a melhorar a eficiência do operador, reduzindo a troca de contexto e permitindo que os operadores executem investigações complexas e de vários estágios usando uma única interface.
O público-alvo deste documento inclui arquitetos e desenvolvedores responsáveis por projetar, criar e implementar aplicativos de IA agêntica e integrar esses aplicativos a sistemas de segurança atuais em ambientes de nuvem. O público-alvo também inclui analistas de SOC e administradores de sistemas que supervisionam as operações de segurança, usam a inteligência contra ameaças para defesa proativa e gerenciam fluxos de trabalho robustos de SecOps para detecção, investigação e resposta a incidentes. Este documento pressupõe que você tenha uma compreensão básica dos conceitos de IA agêntica, incluindo sistemas multiagente, uso de ferramentas agênticas e orquestração agêntica. O documento também pressupõe que você conhece casos de uso de inteligência contra ameaças, fluxos de trabalho de operações de segurança e ferramentas de segurança comuns. Para informações sobre inteligência contra ameaças e ferramentas de segurança comuns, consulte Casos de uso e exemplos de inteligência contra ameaças.
Arquitetura
Dependendo dos seus requisitos, você pode escolher os seguintes modelos de implantação:
- Implantação do Cloud Run: uma plataforma sem servidor totalmente gerenciada que permite implantar todo o aplicativo do agente, componentes individuais ou ferramentas personalizadas como endpoints HTTP escalonáveis sem precisar gerenciar a infraestrutura.
- Vertex AI Agent Engine com implantação do Gemini Enterprise: um ambiente de execução totalmente gerenciado e opinativo que você pode usar para implantar, operar e escalonar aplicativos agênticos com sobrecarga operacional mínima.
Para informações sobre como escolher um ambiente de execução do agente, consulte Escolher os componentes da arquitetura de IA agêntica.
As guias a seguir fornecem diagramas de arquitetura que mostram uma implantação do Cloud Run e uma implantação do Vertex AI Agent Engine com o Gemini Enterprise.
Cloud Run
O diagrama a seguir mostra uma arquitetura detalhada para um sistema de agente do SOC implantado no Cloud Run:
A arquitetura mostra os seguintes componentes:
| Componentes | Descrição |
|---|---|
| Cloud Load Balancing | Um balanceador de carga de aplicativo encaminha as solicitações de inferência recebidas do analista de segurança para o sistema do agente. |
| Google Cloud Armor | Aplica políticas de segurança com base nas regras configuradas do firewall de aplicativos da Web (WAF). |
| Identity-Aware Proxy (IAP) | Aplica um modelo de segurança de confiança zero e verifica a identidade do usuário. |
| Model Armor | Com o Model Armor, você pode inspecionar e higienizar comandos, interações com ferramentas e respostas. Ele oferece controles de segurança flexíveis para qualquer modelo de IA subjacente. Para agentes personalizados executados no Cloud Run, integre o Model Armor usando a API Model Armor. |
| Composição do agente | O Kit de Desenvolvimento de Agente (ADK) é um framework de desenvolvimento de agentes que ajuda a criar e implantar o agente como um serviço sem servidor do Cloud Run. Para mais detalhes sobre a arquitetura interna desse sistema de agentes, consulte a seção Arquitetura do sistema de agentes mais adiante neste documento. |
| Modelo de IA | Para disponibilizar inferências, os agentes nessa arquitetura usam modelos de IA na Vertex AI. |
| Servidores MCP |
O
Protocolo de Contexto de Modelo (MCP) facilita o acesso a ferramentas e padroniza a interação entre agentes e ferramentas. O sistema do agente usa os seguintes servidores MCP:
|
Produtos usados
Esta arquitetura de exemplo usa os seguintes produtos e ferramentas do Google Cloud :
- Cloud Run: uma plataforma de computação sem servidor que permite executar contêineres diretamente na infraestrutura escalonável do Google.
- Cloud Load Balancing: um portfólio de balanceadores de carga globais, regionais, escalonáveis, globais e de alto desempenho.
- Google Cloud Armor: um serviço de segurança de rede que oferece regras de firewall de aplicativos da Web (WAF) e ajuda a proteger contra ataques DDoS e de aplicativos.
- Identity-Aware Proxy (IAP): um serviço que permite um modelo de acesso de confiança zero para seus aplicativos e máquinas virtuais.
- Google Security Operations: uma plataforma de operações de segurança que ajuda as equipes de segurança a detectar, investigar e responder a ameaças cibernéticas.
- Google Threat Intelligence: uma solução de segurança que oferece uma abordagem abrangente e proativa para identificar, analisar e mitigar ameaças à segurança.
- Servidores MCP do Google Cloud: serviços remotos gerenciados pelo Google que implementam o Protocolo de Contexto de Modelo (MCP) para dar aos aplicativos de IA acesso a produtos e serviços do Google e do Google Cloud.
- Gemini: uma família de modelos de IA multimodais desenvolvida pelo Google.
- Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
- Kit de Desenvolvimento de Agente (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
- Model Armor: um serviço que oferece proteção para seus recursos de IA generativa e baseada em agentes contra injeção de comandos, vazamentos de dados sensíveis e conteúdo nocivo.
Vertex AI Agent Engine com o Gemini Enterprise
O diagrama a seguir mostra uma arquitetura detalhada para um sistema de IA de agente de SOC implantado no Vertex AI Agent Engine com o Gemini Enterprise:
O diagrama da arquitetura mostra os seguintes componentes:
| Componentes | Descrição |
|---|---|
| Gemini Enterprise | Os usuários interagem com o sistema de agente pelo assistente de chat fornecido pelo Gemini Enterprise. |
| Composição do agente | O Kit de Desenvolvimento de Agente (ADK) é um framework de desenvolvimento de agentes que ajuda você a criar um agente personalizado, implantar o agente no Vertex AI Agent Engine e registrar o agente no Gemini Enterprise. Para detalhes sobre a arquitetura interna desse sistema de agente, consulte a seção Arquitetura do sistema de agente mais adiante neste documento. |
| Modelo de IA | Os agentes nessa arquitetura usam modelos de IA do Model Garden da Vertex AI para realizar inferências. |
| Model Armor | Para aplicar políticas corporativas de segurança e compliance, o Model Armor se integra diretamente aos serviços do Google Cloud para oferecer inspeção e higienização inline de comandos do usuário e respostas do modelo. Com a integração integrada ao Gemini Enterprise e à Vertex AI, o Model Armor filtra automaticamente as interações entre usuários e os agentes gerenciados. Para mais informações, consulte Integração do Model Armor com serviços do Google Cloud . |
| Servidores MCP |
O
Protocolo de Contexto de Modelo (MCP)
facilita o acesso a ferramentas e padroniza a interação entre agentes e
ferramentas. O sistema do agente usa os seguintes servidores MCP:
|
Produtos usados
Esta arquitetura de exemplo usa os seguintes produtos e ferramentas do Google Cloud :
- Vertex AI Agent Engine: uma plataforma que permite executar, gerenciar e escalonar agentes de IA em produção.
- Gemini Enterprise: uma plataforma segura totalmente gerenciada para implantar e gerenciar agentes de IA em uma empresa.
- Google Security Operations: uma plataforma de operações de segurança que ajuda as equipes de segurança a detectar, investigar e responder a ameaças cibernéticas.
- Google Threat Intelligence: uma solução de segurança que oferece uma abordagem abrangente e proativa para identificar, analisar e mitigar ameaças à segurança.
- Servidores MCP do Google Cloud: serviços remotos gerenciados pelo Google que implementam o Protocolo de Contexto de Modelo (MCP) para dar aos aplicativos de IA acesso a produtos e serviços do Google e do Google Cloud.
- Gemini: uma família de modelos de IA multimodais desenvolvida pelo Google.
- Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
- Kit de Desenvolvimento de Agente (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
- Model Armor: um serviço que oferece proteção para seus recursos de IA generativa e baseada em agentes contra injeção de comandos, vazamentos de dados sensíveis e conteúdo nocivo.
Arquitetura do sistema de agente
Esta seção descreve a arquitetura do sistema de agente SOC personalizado para as implantações anteriores do Cloud Run ou do Gemini Enterprise. Para orquestrar fluxos de trabalho de segurança complexos, o agente usa um padrão de decomposição de tarefas hierárquica. A composição do agente permanece consistente, independente do método de implantação escolhido.
O diagrama a seguir mostra uma visão detalhada da arquitetura do sistema de agente:
A arquitetura mostra os seguintes componentes:
| Componentes | Descrição |
|---|---|
| Aplicativo | Um aplicativo de front-end, como uma interface de chat, que interage com o usuário. Você pode implantar seu aplicativo com o Cloud Run ou o Vertex AI Agent Engine com o Gemini Enterprise. |
| Agentes |
Essa arquitetura usa os seguintes agentes:
O diagrama de arquitetura do sistema do agente mostra um exemplo de arquitetura que usa duas personas de SOC. Dependendo dos seus casos de uso específicos, você pode implantar outras personas de SOC ou criar suas próprias personas personalizadas. Para uma lista mais ampla de personas do SOC que podem ajudar a tornar suas operações de segurança mais robustas, consulte Personas do SOC. |
| Banco de dados de conhecimento da RAG | Esse banco de dados fornece uma fonte de embasamento para a geração aumentada por recuperação (RAG). O banco de dados é usado para fornecer aos agentes planos de resposta a incidentes e runbooks de IA. Os runbooks de IA são fluxos de trabalho prescritivos na forma de Habilidades do agente. |
| Serviço de artefatos | Um serviço gerenciado que armazena relatórios de investigação e evidências no Cloud Storage. |
| Memory Bank (em inglês) | Um sistema de gerenciamento de estado persistente que armazena tópicos de memória personalizados e permite que os agentes mantenham o contexto sobre o ambiente e as ameaças em várias sessões. |
| Modelos de IA | Para disponibilizar inferências, os agentes nessa arquitetura usam o modelo do Gemini mais recente na Vertex AI. |
| Servidores MCP | Os servidores MCP facilitam o acesso a ferramentas e padronizam a interação entre agentes e ferramentas. Para cada par agente-ferramenta, um cliente do MCP envia solicitações a um servidor do MCP, por meio do qual o agente acessa uma ferramenta, como um banco de dados, um sistema de arquivos ou uma API. |
| Ferramentas de agentes | Com essas ferramentas, os agentes podem recuperar dados de embasamento, como runbooks de IA correspondentes, planos de resposta a incidentes, relatórios anteriores, documentação interna e playbooks. |
| ADK | O ADK oferece ferramentas e um framework para desenvolver, testar e implantar agentes. O ADK abstrai a complexidade da criação de agentes e permite que os desenvolvedores de IA se concentrem na lógica e nos recursos do agente. |
A arquitetura mostra o seguinte fluxo de dados:
- Um analista de segurança envia uma solicitação ao gerente do SOC, que é um agente coordenador. Por exemplo, um analista envia uma solicitação para investigar o caso nº 37.
- O aplicativo implantado no Cloud Run ou no Gemini Enterprise encaminha a solicitação ao gerente de SOC.
- O gerente de SOC usa o Gemini para interpretar a solicitação do usuário.
- O gerente de SOC realiza as seguintes tarefas para coletar contexto sobre a solicitação:
- Envia uma consulta ao banco de dados de conhecimento da RAG para buscar os runbooks de IA correspondentes, fluxos de trabalho prescritivos na forma de habilidades de IA e o plano de resposta a incidentes.
- Busca memórias anteriores para identificar se o sistema do agente analisou incidentes semelhantes.
- Verifica o Serviço de artefatos para relatórios ou evidências relacionados à solicitação.
- O gerente de SOC usa o Gemini e o contexto recuperado para dividir a solicitação em uma sequência de subtarefas e identificar as ferramentas adequadas.
- O gerente do SOC direciona dinamicamente subtarefas para subagentes especializados, como o analista de nível 1 e o pesquisador de inteligência contra ameaças cibernéticas (CTI, na sigla em inglês).
- Cada subagente realiza as seguintes ações para executar as subtarefas
atribuídas:
- Usa o Gemini para interpretar os objetivos da tarefa.
- Busca o contexto relevante no banco de dados de conhecimento, nas memórias e nos artefatos da RAG.
- Usa servidores MCP para reunir o seguinte contexto adicional e fundamentar
as respostas:
- Documentação de conhecimento, como relatórios anteriores, documentação interna e playbooks.
- Inteligência e telemetria de segurança que usam dados do Google SecOps e do Google Threat Intelligence.
- Usa o Gemini e o contexto recuperado para gerar descobertas.
- Organiza as descobertas em um resumo estruturado.
- Encaminha a resposta intermediária de volta ao gerente de SOC.
- O gerente do SOC recebe as respostas intermediárias dos subagentes e avalia as descobertas em relação aos requisitos do runbook de IA.
- Se as descobertas não atenderem aos critérios de avaliação, o gerente do SOC vai repetir a análise da solicitação do usuário e delegar subtarefas a subagentes para coletar mais dados. Durante esse loop iterativo, o gerente do SOC retém a cadeia de contexto anterior para informar e aumentar as chamadas de ferramentas e delegações de subagentes subsequentes. O gerente de SOC continua esse ciclo até que as descobertas atendam aos critérios de avaliação.
- Se as descobertas atenderem aos critérios de avaliação ou a uma condição de saída, como o número máximo de iterações, o gerente de SOC vai realizar as seguintes ações:
- Usa o Gemini para sintetizar todas as descobertas do subagente em um relatório de investigação e salva o relatório no Serviço de artefatos.
- Usa o servidor MCP do Google SecOps para postar resultados no mural de casos.
- Salva novas memórias no Memory Bank da Vertex AI.
- O gerente de SOC envia o link do artefato e o resumo do relatório de volta ao analista de segurança.
Produtos usados
A arquitetura do sistema de agente neste documento usa os seguintes produtos e ferramentas: Google Cloud
- Google Security Operations: uma plataforma de operações de segurança que ajuda as equipes de segurança a detectar, investigar e responder a ameaças cibernéticas.
- Google Threat Intelligence: uma solução de segurança que oferece uma abordagem abrangente e proativa para identificar, analisar e mitigar ameaças à segurança.
- Servidores MCP do Google Cloud: serviços remotos gerenciados pelo Google que implementam o Protocolo de Contexto de Modelo (MCP) para dar aos aplicativos de IA acesso a produtos e serviços do Google e do Google Cloud.
- Gemini: uma família de modelos de IA multimodais desenvolvida pelo Google.
- Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
- Kit de Desenvolvimento de Agente (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
- Model Armor: um serviço que oferece proteção para seus recursos de IA generativa e baseada em agentes contra injeção de comandos, vazamentos de dados sensíveis e conteúdo nocivo.
- Memory Bank: um serviço de armazenamento persistente que gera, refina, gerencia e recupera memórias de longo prazo com base nas conversas de um usuário com um agente.
- Cloud Storage: um armazenamento de objetos de baixo custo e sem limite para diversos tipos de dados. Os dados podem ser acessados de dentro e fora Google Cloude são replicados entre locais para redundância.
Para informações sobre como selecionar componentes alternativos para seu sistema de IA agêntica, incluindo framework, tempo de execução do agente, ferramentas, memória e padrões de design, consulte Escolher os componentes de arquitetura de IA agêntica.
Considerações sobre o design
Para implementar essa arquitetura em produção, considere as seguintes recomendações:
- Acesso a ferramentas do agente: para reduzir o consumo de tokens e aplicar o princípio de privilégio mínimo, forneça subconjuntos de ferramentas a diferentes agentes conforme necessário.
- Escopo do agente: para melhorar a acurácia do modelo, defina o escopo dos runbooks e das instruções do sistema de cada agente.
- Gerenciamento da janela de contexto: para minimizar o consumo de tokens, crie comandos e saídas de ferramentas concisos. Use repositórios RAG e habilidades do agente para pré-carregar contexto e resumir respostas de ferramentas grandes.
- Armazenamento em cache de comandos: para reduzir os custos de tokens de entrada, armazene em cache o conteúdo estático do agente, como instruções do sistema, personas, runbooks e esquemas de ferramentas.
- Seleção de modelo: o modelo selecionado para seu aplicativo de IA afeta diretamente os custos e o desempenho. Selecione modelos diferentes no seu sistema agêntico com base nas diferentes funções de agente e requisitos de tarefa. Para raciocínio complexo e decomposição de tarefas, use um modelo de raciocínio como o Gemini Pro. Para tarefas pequenas e diretas, use um modelo rápido e de baixo custo, como o Gemini Flash.
- Compatibilidade do esquema do MCP: para evitar que o modelo de IA interprete mal as definições de ferramentas e faça chamadas incorretas, limpe os esquemas de ferramentas.
Crie construções independentes para JSON Schema
$refe$defse normalize strings de tipo em maiúsculas. - Ambientes de autenticação: para garantir uma autenticação perfeita em todos os ambientes, configure seus pipelines de implantação para gerenciar a transição das estratégias de autenticação de desenvolvimento. Por exemplo, talvez seja necessário fazer a transição das Application Default Credentials (ADC) na execução local para contas de serviço gerenciadas pelo Identity and Access Management (IAM) para servidores MCP remotos hospedados em produção.
Implantação
Para implantar uma implementação de exemplo dessa arquitetura que fornece agentes personalizados do SOC, use o exemplo de código do Gemini Enterprise do SOC de agente disponível no GitHub.
Recomendamos que você itere no seu agente na seguinte ordem:
- Implante localmente com a ADK web: acelere a prototipagem e itere rapidamente na lógica do agente.
- Implante em um contêiner local: garanta um ambiente portátil e imutável com dependências consistentes.
- Implante o contêiner no Cloud Run ou no Vertex AI Agent Engine: escale seus agentes para operações de segurança efetivas e mova seu aplicativo do desenvolvimento para a produção.
A seguir
- Saiba como hospedar agentes de IA no Cloud Run
- Saiba mais sobre segurança com IA generativa.
- Saiba mais sobre a visão geral da segurança do Gemini Enterprise.
- Saiba como criar um sistema de IA multiagente em Google Cloud.
- Conecte agentes aos dados do Google SecOps usando o servidor MCP do Google SecOps.
- Consulte a perspectiva de segurança no Google Cloud Well-Architected Framework.
- Para mais arquiteturas de referência, diagramas e práticas recomendadas, confira a Central de arquitetura do Cloud.
Colaboradores
Autores:
- Ben Perel | Especialista em segurança
- Daniel Dye | Engenheiro de IA de SecOps
Outros colaboradores:
- Amr Abdelrazik | Gerente de produto do grupo
- Kumar Dhanagopal | Desenvolvedor de soluções para vários produtos
- Samantha He | Redatora técnica