Caso de uso de IA agêntica: orquestrar fluxos de trabalho de operações de segurança

Last reviewed 2026-04-08 UTC

Neste documento, descrevemos uma arquitetura de alto nível para um sistema de IA multiagente que orquestra processos complexos de investigação e triagem em uma central de operações de segurança (SOC). O sistema de agentes orquestra fluxos de trabalho em diferentes sistemas de segurança, como sistemas de gerenciamento de eventos e informações de segurança (SIEM), feeds de inteligência contra ameaças, plataformas de gerenciamento de postura de segurança na nuvem (CSPM) e soluções de detecção e resposta de endpoints (EDR). O sistema do agente pode realizar estas ações:

  • Procure alertas críticos do Google Security Operations.
  • Enriqueça os alertas usando o Google Threat Intelligence.
  • Pesquise erros de configuração de recursos em uma ferramenta CSPM de terceiros.
  • Implemente a aprovação human-in-the-loop.
  • Recupere a telemetria detalhada do endpoint e o histórico de execução de processos de uma ferramenta EDR de terceiros para investigar um endpoint comprometido ou suspeito.

Essa arquitetura ajuda a melhorar a eficiência do operador, reduzindo a troca de contexto e permitindo que os operadores executem investigações complexas e de vários estágios usando uma única interface.

O público-alvo deste documento inclui arquitetos e desenvolvedores responsáveis por projetar, criar e implementar aplicativos de IA agêntica e integrar esses aplicativos a sistemas de segurança atuais em ambientes de nuvem. O público-alvo também inclui analistas de SOC e administradores de sistemas que supervisionam as operações de segurança, usam a inteligência contra ameaças para defesa proativa e gerenciam fluxos de trabalho robustos de SecOps para detecção, investigação e resposta a incidentes. Este documento pressupõe que você tenha uma compreensão básica dos conceitos de IA agêntica, incluindo sistemas multiagente, uso de ferramentas agênticas e orquestração agêntica. O documento também pressupõe que você conhece casos de uso de inteligência contra ameaças, fluxos de trabalho de operações de segurança e ferramentas de segurança comuns. Para informações sobre inteligência contra ameaças e ferramentas de segurança comuns, consulte Casos de uso e exemplos de inteligência contra ameaças.

Arquitetura

Dependendo dos seus requisitos, você pode escolher os seguintes modelos de implantação:

  • Implantação do Cloud Run: uma plataforma sem servidor totalmente gerenciada que permite implantar todo o aplicativo do agente, componentes individuais ou ferramentas personalizadas como endpoints HTTP escalonáveis sem precisar gerenciar a infraestrutura.
  • Vertex AI Agent Engine com implantação do Gemini Enterprise: um ambiente de execução totalmente gerenciado e opinativo que você pode usar para implantar, operar e escalonar aplicativos agênticos com sobrecarga operacional mínima.

Para informações sobre como escolher um ambiente de execução do agente, consulte Escolher os componentes da arquitetura de IA agêntica.

As guias a seguir fornecem diagramas de arquitetura que mostram uma implantação do Cloud Run e uma implantação do Vertex AI Agent Engine com o Gemini Enterprise.

Cloud Run

O diagrama a seguir mostra uma arquitetura detalhada para um sistema de agente do SOC implantado no Cloud Run:

Uma arquitetura detalhada para um sistema de agentes do SOC implantado no Cloud Run.

A arquitetura mostra os seguintes componentes:

Componentes Descrição
Cloud Load Balancing Um balanceador de carga de aplicativo encaminha as solicitações de inferência recebidas do analista de segurança para o sistema do agente.
Google Cloud Armor Aplica políticas de segurança com base nas regras configuradas do firewall de aplicativos da Web (WAF).
Identity-Aware Proxy (IAP) Aplica um modelo de segurança de confiança zero e verifica a identidade do usuário.
Model Armor Com o Model Armor, você pode inspecionar e higienizar comandos, interações com ferramentas e respostas. Ele oferece controles de segurança flexíveis para qualquer modelo de IA subjacente. Para agentes personalizados executados no Cloud Run, integre o Model Armor usando a API Model Armor.
Composição do agente O Kit de Desenvolvimento de Agente (ADK) é um framework de desenvolvimento de agentes que ajuda a criar e implantar o agente como um serviço sem servidor do Cloud Run. Para mais detalhes sobre a arquitetura interna desse sistema de agentes, consulte a seção Arquitetura do sistema de agentes mais adiante neste documento.
Modelo de IA Para disponibilizar inferências, os agentes nessa arquitetura usam modelos de IA na Vertex AI.
Servidores MCP O Protocolo de Contexto de Modelo (MCP) facilita o acesso a ferramentas e padroniza a interação entre agentes e ferramentas. O sistema do agente usa os seguintes servidores MCP:

Produtos usados

Esta arquitetura de exemplo usa os seguintes produtos e ferramentas do Google Cloud :

  • Cloud Run: uma plataforma de computação sem servidor que permite executar contêineres diretamente na infraestrutura escalonável do Google.
  • Cloud Load Balancing: um portfólio de balanceadores de carga globais, regionais, escalonáveis, globais e de alto desempenho.
  • Google Cloud Armor: um serviço de segurança de rede que oferece regras de firewall de aplicativos da Web (WAF) e ajuda a proteger contra ataques DDoS e de aplicativos.
  • Identity-Aware Proxy (IAP): um serviço que permite um modelo de acesso de confiança zero para seus aplicativos e máquinas virtuais.
  • Google Security Operations: uma plataforma de operações de segurança que ajuda as equipes de segurança a detectar, investigar e responder a ameaças cibernéticas.
  • Google Threat Intelligence: uma solução de segurança que oferece uma abordagem abrangente e proativa para identificar, analisar e mitigar ameaças à segurança.
  • Servidores MCP do Google Cloud: serviços remotos gerenciados pelo Google que implementam o Protocolo de Contexto de Modelo (MCP) para dar aos aplicativos de IA acesso a produtos e serviços do Google e do Google Cloud.
  • Gemini: uma família de modelos de IA multimodais desenvolvida pelo Google.
  • Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
  • Kit de Desenvolvimento de Agente (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
  • Model Armor: um serviço que oferece proteção para seus recursos de IA generativa e baseada em agentes contra injeção de comandos, vazamentos de dados sensíveis e conteúdo nocivo.

Vertex AI Agent Engine com o Gemini Enterprise

O diagrama a seguir mostra uma arquitetura detalhada para um sistema de IA de agente de SOC implantado no Vertex AI Agent Engine com o Gemini Enterprise:

Uma arquitetura detalhada para um sistema de IA de agente do SOC implantado no
Vertex AI Agent Engine com o Gemini Enterprise.

O diagrama da arquitetura mostra os seguintes componentes:

Componentes Descrição
Gemini Enterprise Os usuários interagem com o sistema de agente pelo assistente de chat fornecido pelo Gemini Enterprise.
Composição do agente O Kit de Desenvolvimento de Agente (ADK) é um framework de desenvolvimento de agentes que ajuda você a criar um agente personalizado, implantar o agente no Vertex AI Agent Engine e registrar o agente no Gemini Enterprise. Para detalhes sobre a arquitetura interna desse sistema de agente, consulte a seção Arquitetura do sistema de agente mais adiante neste documento.
Modelo de IA Os agentes nessa arquitetura usam modelos de IA do Model Garden da Vertex AI para realizar inferências.
Model Armor Para aplicar políticas corporativas de segurança e compliance, o Model Armor se integra diretamente aos serviços do Google Cloud para oferecer inspeção e higienização inline de comandos do usuário e respostas do modelo. Com a integração integrada ao Gemini Enterprise e à Vertex AI, o Model Armor filtra automaticamente as interações entre usuários e os agentes gerenciados. Para mais informações, consulte Integração do Model Armor com serviços do Google Cloud .
Servidores MCP O Protocolo de Contexto de Modelo (MCP) facilita o acesso a ferramentas e padroniza a interação entre agentes e ferramentas. O sistema do agente usa os seguintes servidores MCP:
  • Servidor MCP do Google SecOps: um servidor MCP gerenciado pelo Google que oferece acesso aos dados do Google SecOps SIEM e do Google SecOps SOAR, incluindo eventos, entidades, registros brutos e detalhes de casos.
  • Servidor MCP do Google Threat Intelligence: um servidor MCP local que fornece acesso ao Google Threat Intelligence. O Google Threat Intelligence correlaciona alertas de ambiente interno com dados globais de adversários e simplifica a identificação de indicadores maliciosos conhecidos no fluxo de trabalho do SOC.
  • Servidores MCP de terceiros: um conector gerenciado por fornecedores terceirizados que permite interagir com ferramentas de segurança externas.

Produtos usados

Esta arquitetura de exemplo usa os seguintes produtos e ferramentas do Google Cloud :

Arquitetura do sistema de agente

Esta seção descreve a arquitetura do sistema de agente SOC personalizado para as implantações anteriores do Cloud Run ou do Gemini Enterprise. Para orquestrar fluxos de trabalho de segurança complexos, o agente usa um padrão de decomposição de tarefas hierárquica. A composição do agente permanece consistente, independente do método de implantação escolhido.

O diagrama a seguir mostra uma visão detalhada da arquitetura do sistema de agente: Uma arquitetura detalhada de sistema de IA de agente para um fluxo de trabalho de SecOps agêntico.

A arquitetura mostra os seguintes componentes:

Componentes Descrição
Aplicativo Um aplicativo de front-end, como uma interface de chat, que interage com o usuário. Você pode implantar seu aplicativo com o Cloud Run ou o Vertex AI Agent Engine com o Gemini Enterprise.
Agentes

Essa arquitetura usa os seguintes agentes:

  • Agente raiz: um agente coordenador que recebe solicitações do usuário. O agente raiz interpreta a solicitação do usuário e tenta resolver o problema por conta própria. Se a tarefa exigir ferramentas especializadas, o agente raiz vai delegar a solicitação ao agente especializado adequado.
  • Agentes especializados: o agente raiz invoca os seguintes agentes especializados:
    • Analista de nível 1: recupera detalhes de alertas, identifica recursos afetados e extrai o contexto do usuário ao consultar o Google SecOps e fontes de telemetria relacionadas.
    • Pesquisador de inteligência contra ameaças cibernéticas (CTI): pesquisa táticas de agentes de ameaças relacionadas ao alerta específico. Esse agente faz uma avaliação de risco da atividade consultando plataformas de inteligência contra ameaças para correlacionar indicadores de comprometimento (IOCs) internos com grupos de agentes de ameaças conhecidos e táticas, técnicas e procedimentos (TTPs) documentados.

O diagrama de arquitetura do sistema do agente mostra um exemplo de arquitetura que usa duas personas de SOC. Dependendo dos seus casos de uso específicos, você pode implantar outras personas de SOC ou criar suas próprias personas personalizadas. Para uma lista mais ampla de personas do SOC que podem ajudar a tornar suas operações de segurança mais robustas, consulte Personas do SOC.

Banco de dados de conhecimento da RAG Esse banco de dados fornece uma fonte de embasamento para a geração aumentada por recuperação (RAG). O banco de dados é usado para fornecer aos agentes planos de resposta a incidentes e runbooks de IA. Os runbooks de IA são fluxos de trabalho prescritivos na forma de Habilidades do agente.
Serviço de artefatos Um serviço gerenciado que armazena relatórios de investigação e evidências no Cloud Storage.
Memory Bank (em inglês) Um sistema de gerenciamento de estado persistente que armazena tópicos de memória personalizados e permite que os agentes mantenham o contexto sobre o ambiente e as ameaças em várias sessões.
Modelos de IA Para disponibilizar inferências, os agentes nessa arquitetura usam o modelo do Gemini mais recente na Vertex AI.
Servidores MCP Os servidores MCP facilitam o acesso a ferramentas e padronizam a interação entre agentes e ferramentas. Para cada par agente-ferramenta, um cliente do MCP envia solicitações a um servidor do MCP, por meio do qual o agente acessa uma ferramenta, como um banco de dados, um sistema de arquivos ou uma API.
Ferramentas de agentes Com essas ferramentas, os agentes podem recuperar dados de embasamento, como runbooks de IA correspondentes, planos de resposta a incidentes, relatórios anteriores, documentação interna e playbooks.
ADK O ADK oferece ferramentas e um framework para desenvolver, testar e implantar agentes. O ADK abstrai a complexidade da criação de agentes e permite que os desenvolvedores de IA se concentrem na lógica e nos recursos do agente.

A arquitetura mostra o seguinte fluxo de dados:

  1. Um analista de segurança envia uma solicitação ao gerente do SOC, que é um agente coordenador. Por exemplo, um analista envia uma solicitação para investigar o caso nº 37.
  2. O aplicativo implantado no Cloud Run ou no Gemini Enterprise encaminha a solicitação ao gerente de SOC.
  3. O gerente de SOC usa o Gemini para interpretar a solicitação do usuário.
  4. O gerente de SOC realiza as seguintes tarefas para coletar contexto sobre a solicitação:
    1. Envia uma consulta ao banco de dados de conhecimento da RAG para buscar os runbooks de IA correspondentes, fluxos de trabalho prescritivos na forma de habilidades de IA e o plano de resposta a incidentes.
    2. Busca memórias anteriores para identificar se o sistema do agente analisou incidentes semelhantes.
    3. Verifica o Serviço de artefatos para relatórios ou evidências relacionados à solicitação.
  5. O gerente de SOC usa o Gemini e o contexto recuperado para dividir a solicitação em uma sequência de subtarefas e identificar as ferramentas adequadas.
  6. O gerente do SOC direciona dinamicamente subtarefas para subagentes especializados, como o analista de nível 1 e o pesquisador de inteligência contra ameaças cibernéticas (CTI, na sigla em inglês).
  7. Cada subagente realiza as seguintes ações para executar as subtarefas atribuídas:
    1. Usa o Gemini para interpretar os objetivos da tarefa.
    2. Busca o contexto relevante no banco de dados de conhecimento, nas memórias e nos artefatos da RAG.
    3. Usa servidores MCP para reunir o seguinte contexto adicional e fundamentar as respostas:
      • Documentação de conhecimento, como relatórios anteriores, documentação interna e playbooks.
      • Inteligência e telemetria de segurança que usam dados do Google SecOps e do Google Threat Intelligence.
    4. Usa o Gemini e o contexto recuperado para gerar descobertas.
    5. Organiza as descobertas em um resumo estruturado.
    6. Encaminha a resposta intermediária de volta ao gerente de SOC.
  8. O gerente do SOC recebe as respostas intermediárias dos subagentes e avalia as descobertas em relação aos requisitos do runbook de IA.
    1. Se as descobertas não atenderem aos critérios de avaliação, o gerente do SOC vai repetir a análise da solicitação do usuário e delegar subtarefas a subagentes para coletar mais dados. Durante esse loop iterativo, o gerente do SOC retém a cadeia de contexto anterior para informar e aumentar as chamadas de ferramentas e delegações de subagentes subsequentes. O gerente de SOC continua esse ciclo até que as descobertas atendam aos critérios de avaliação.
    2. Se as descobertas atenderem aos critérios de avaliação ou a uma condição de saída, como o número máximo de iterações, o gerente de SOC vai realizar as seguintes ações:
      1. Usa o Gemini para sintetizar todas as descobertas do subagente em um relatório de investigação e salva o relatório no Serviço de artefatos.
      2. Usa o servidor MCP do Google SecOps para postar resultados no mural de casos.
      3. Salva novas memórias no Memory Bank da Vertex AI.
  9. O gerente de SOC envia o link do artefato e o resumo do relatório de volta ao analista de segurança.

Produtos usados

A arquitetura do sistema de agente neste documento usa os seguintes produtos e ferramentas: Google Cloud

  • Google Security Operations: uma plataforma de operações de segurança que ajuda as equipes de segurança a detectar, investigar e responder a ameaças cibernéticas.
  • Google Threat Intelligence: uma solução de segurança que oferece uma abordagem abrangente e proativa para identificar, analisar e mitigar ameaças à segurança.
  • Servidores MCP do Google Cloud: serviços remotos gerenciados pelo Google que implementam o Protocolo de Contexto de Modelo (MCP) para dar aos aplicativos de IA acesso a produtos e serviços do Google e do Google Cloud.
  • Gemini: uma família de modelos de IA multimodais desenvolvida pelo Google.
  • Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
  • Kit de Desenvolvimento de Agente (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
  • Model Armor: um serviço que oferece proteção para seus recursos de IA generativa e baseada em agentes contra injeção de comandos, vazamentos de dados sensíveis e conteúdo nocivo.
  • Memory Bank: um serviço de armazenamento persistente que gera, refina, gerencia e recupera memórias de longo prazo com base nas conversas de um usuário com um agente.
  • Cloud Storage: um armazenamento de objetos de baixo custo e sem limite para diversos tipos de dados. Os dados podem ser acessados de dentro e fora Google Cloude são replicados entre locais para redundância.

Para informações sobre como selecionar componentes alternativos para seu sistema de IA agêntica, incluindo framework, tempo de execução do agente, ferramentas, memória e padrões de design, consulte Escolher os componentes de arquitetura de IA agêntica.

Considerações sobre o design

Para implementar essa arquitetura em produção, considere as seguintes recomendações:

  • Acesso a ferramentas do agente: para reduzir o consumo de tokens e aplicar o princípio de privilégio mínimo, forneça subconjuntos de ferramentas a diferentes agentes conforme necessário.
  • Escopo do agente: para melhorar a acurácia do modelo, defina o escopo dos runbooks e das instruções do sistema de cada agente.
  • Gerenciamento da janela de contexto: para minimizar o consumo de tokens, crie comandos e saídas de ferramentas concisos. Use repositórios RAG e habilidades do agente para pré-carregar contexto e resumir respostas de ferramentas grandes.
  • Armazenamento em cache de comandos: para reduzir os custos de tokens de entrada, armazene em cache o conteúdo estático do agente, como instruções do sistema, personas, runbooks e esquemas de ferramentas.
  • Seleção de modelo: o modelo selecionado para seu aplicativo de IA afeta diretamente os custos e o desempenho. Selecione modelos diferentes no seu sistema agêntico com base nas diferentes funções de agente e requisitos de tarefa. Para raciocínio complexo e decomposição de tarefas, use um modelo de raciocínio como o Gemini Pro. Para tarefas pequenas e diretas, use um modelo rápido e de baixo custo, como o Gemini Flash.
  • Compatibilidade do esquema do MCP: para evitar que o modelo de IA interprete mal as definições de ferramentas e faça chamadas incorretas, limpe os esquemas de ferramentas. Crie construções independentes para JSON Schema $ref e $defs e normalize strings de tipo em maiúsculas.
  • Ambientes de autenticação: para garantir uma autenticação perfeita em todos os ambientes, configure seus pipelines de implantação para gerenciar a transição das estratégias de autenticação de desenvolvimento. Por exemplo, talvez seja necessário fazer a transição das Application Default Credentials (ADC) na execução local para contas de serviço gerenciadas pelo Identity and Access Management (IAM) para servidores MCP remotos hospedados em produção.

Implantação

Para implantar uma implementação de exemplo dessa arquitetura que fornece agentes personalizados do SOC, use o exemplo de código do Gemini Enterprise do SOC de agente disponível no GitHub.

Recomendamos que você itere no seu agente na seguinte ordem:

  1. Implante localmente com a ADK web: acelere a prototipagem e itere rapidamente na lógica do agente.
  2. Implante em um contêiner local: garanta um ambiente portátil e imutável com dependências consistentes.
  3. Implante o contêiner no Cloud Run ou no Vertex AI Agent Engine: escale seus agentes para operações de segurança efetivas e mova seu aplicativo do desenvolvimento para a produção.

A seguir

Colaboradores

Autores:

Outros colaboradores: