Este documento descreve uma arquitetura de alto nível para um aplicativo que gera e administra um teste de aprendizado interativo com um fluxo de trabalho de IA agêntica. O agente avalia o conhecimento de um usuário sobre um tópico específico e usa um estado de sessão persistente e memória de longo prazo para criar uma experiência personalizada. O agente mantém um histórico das respostas do usuário, o que permite ajustar dinamicamente a dificuldade e o conteúdo das perguntas subsequentes.
O público-alvo deste documento inclui arquitetos, desenvolvedores e administradores que criam e gerenciam aplicativos de IA com agentes. Essa arquitetura é adaptável para criar aplicativos educacionais interativos e com estado em vários setores. O documento pressupõe um conhecimento básico dos sistemas de agentes de IA. Para saber como os agentes diferem dos sistemas não agentes, consulte Qual é a diferença entre agentes de IA, assistentes de IA e bots?
A seção Implantação deste documento fornece links para exemplos de código que ajudam você a testar a implantação de um aplicativo de IA com agente que executa um fluxo de trabalho de ciência de dados.
Arquitetura
O diagrama a seguir mostra uma arquitetura de alto nível para um agente de aprendizado interativo.
A arquitetura mostra o seguinte fluxo de dados:
- Um usuário realiza uma ação, como iniciar um teste ou enviar uma resposta, no aplicativo de teste hospedado no Cloud Run.
- O aplicativo encaminha a entrada do usuário para o agente de IA.
O agente de IA usa o modelo do Gemini na Vertex AI para interpretar a entrada do usuário. Com base na solicitação do usuário, o agente chama as ferramentas adequadas para realizar a ação de teste pedida.
Por exemplo, o agente seleciona uma ferramenta para iniciar uma sessão de teste, avaliar uma resposta ou gerar a próxima pergunta.
O agente envia a resposta ao aplicativo de teste.
O aplicativo de teste encaminha a resposta para o usuário.
Para manter o estado do teste e personalizar a experiência, o agente realiza as seguintes tarefas em segundo plano:
- O agente anexa o progresso e a pontuação mais recentes do teste ao histórico da sessão salva, que fica armazenada em Sessões do Agent Engine da Vertex AI.
- O agente transforma os dados do teste em memórias e os armazena no Memory Bank para recordação de longo prazo. O agente usa os dados históricos armazenados na memória para gerar respostas com reconhecimento de contexto em sessões futuras.
Produtos usados
Esta arquitetura de exemplo usa os seguintes produtos Google Cloud :
- Cloud Run: uma plataforma de computação sem servidor que permite executar contêineres diretamente na infraestrutura escalonável do Google.
- Kit de desenvolvimento de agentes (ADK): um conjunto de ferramentas e bibliotecas para desenvolver, testar e implantar agentes de IA.
- Vertex AI: uma plataforma de ML que permite treinar e implantar modelos de ML e aplicativos de IA, além de personalizar LLMs para uso em aplicativos com tecnologia de IA.
- Sessões do Agent Engine da Vertex AI: um serviço de armazenamento persistente que salva e recupera o histórico de interações entre um usuário e agentes.
- Banco de memória: um serviço de armazenamento persistente que gera, refina, gerencia e recupera memórias de longo prazo com base nas conversas de um usuário com um agente.
Implantação
Para implantar uma implementação de amostra dessa arquitetura que oferece testes relacionados à programação, use o exemplo de código do tutor de Python disponível no GitHub.
A seguir
- (Notebook) Comece a usar as sessões e o banco de memória para agentes do ADK no Cloud Run.
- (Blog) Saiba mais sobre estado e memória com o ADK.
- (Codelab) Criar um assistente de revisão de código de IA de produção com o ADK.
- (Vídeo) Assista o podcast Agent Factory sobre memória em agentes.
- Saiba como hospedar agentes de IA no Cloud Run.
- Para uma visão geral dos princípios e recomendações de arquitetura específicos para cargas de trabalho de IA e ML no Google Cloud, consulte a perspectiva de IA e ML no framework bem arquitetado.
- Para mais arquiteturas de referência, diagramas e práticas recomendadas, confira a Central de arquitetura do Cloud.
Colaboradores
Autora: Samantha He | Redatora técnica
Outros colaboradores:
- Amina Mansour | Líder da equipe de avaliações do Cloud Platform
- Kumar Dhanagopal | Desenvolvedor de soluções para vários produtos
- Megan O'Keefe | Mediadora de desenvolvedores
- Rachael Deacon-Smith | Mediadora de desenvolvedores
- Shir Meir Lador | Gerente de engenharia de relações com desenvolvedores