Pesquisa vetorial para aplicativos de IA generativa

Nesta página, descrevemos como o Memorystore para Redis Cluster oferece suporte ao armazenamento e à consulta de dados de vetor para aplicativos de IA generativa, como a geração aumentada por recuperação (RAG) e o LangChain, usando recursos de pesquisa vetorial.

Usar a pesquisa de vetores para IA generativa com o LangChain

A pesquisa de vetores no Memorystore para Redis Cluster é compatível com o framework de LLM de código aberto LangChain. Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes casos de uso:

  • RAG
  • Cache de LLM
  • Mecanismo de recomendação
  • Pesquisa semântica
  • Pesquisa de similaridade de imagens

Benefícios da pesquisa vetorial para IA generativa no Memorystore for Redis Cluster

A vantagem de usar o Memorystore para armazenar dados de IA generativa em comparação com outros bancos de dados Google Cloud é a velocidade. A pesquisa vetorial no Memorystore for Redis Cluster usa consultas multithread, resultando em alta capacidade de processamento de consultas (QPS) com baixa latência.

Abordagens para usar a pesquisa vetorial com IA generativa no Memorystore for Redis Cluster

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e acurácia. A opção Hierarchical Navigable Small World (HNSW) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem FLAT produz respostas exatas, mas pode levar um pouco mais de tempo para processar.

Se você quiser otimizar seu aplicativo para as velocidades de leitura e gravação de dados de vetor mais rápidas, o Memorystore for Redis Cluster provavelmente será a melhor opção.