Pesquisa vetorial para aplicativos de IA generativa

Nesta página, descrevemos como o Memorystore para Redis oferece suporte ao armazenamento e à consulta de dados de vetor para aplicativos de IA generativa, como a geração aumentada por recuperação (RAG) e o LangChain, usando recursos de pesquisa vetorial.

Usar a pesquisa de vetores para IA generativa com o LangChain

A pesquisa de vetores no Memorystore para Redis é compatível com a estrutura de LLM de código aberto LangChain. Usar a pesquisa de vetores com o LangChain permite criar soluções para os seguintes casos de uso:

  • RAG
  • Cache de LLM
  • Mecanismo de recomendação
  • Pesquisa semântica
  • Pesquisa de similaridade de imagens

Benefícios da pesquisa vetorial para IA generativa no Memorystore para Redis

A vantagem de usar o Memorystore para armazenar seus dados de IA generativa, em comparação com outros bancos de dados Google Cloud , é a velocidade. A pesquisa de vetores no Memorystore para Redis usa consultas multithread, resultando em alta capacidade de processamento de consultas (QPS) com baixa latência.

Abordagens para usar a pesquisa vetorial com IA generativa no Memorystore para Redis

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar você a encontrar o equilíbrio certo entre velocidade e acurácia. A opção Hierarchical Navigable Small World (HNSW) oferece resultados rápidos e aproximados, ideal para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se você precisar de precisão absoluta, a abordagem FLAT produz respostas exatas, mas pode levar um pouco mais de tempo para processar.

Se você quiser otimizar seu aplicativo para as velocidades de leitura e gravação de dados vetoriais mais rápidas, o Memorystore para Redis provavelmente será a melhor opção.