Pesquisa vetorial para aplicações de IA generativa

Esta página descreve como o Memorystore for Valkey suporta o armazenamento e a consulta de dados vetoriais para aplicações de IA generativa, como a geração aumentada de obtenção (RAG) e o LangChain, através da utilização de capacidades de pesquisa vetorial.

Use a pesquisa vetorial para IA generativa com o LangChain

A pesquisa vetorial no Memorystore for Valkey é compatível com a framework de LLM de código aberto LangChain. A utilização da pesquisa vetorial com o LangChain permite-lhe criar soluções para os seguintes exemplos de utilização:

  • RAG
  • Cache de LLM
  • Motor de recomendação
  • Pesquisa semântica
  • Pesquisa de semelhança de imagens

Vantagens da pesquisa vetorial para a IA generativa no Memorystore for Valkey

A vantagem de usar o Memorystore para armazenar os seus dados de IA generativa, em comparação com outras bases de dados, é a sua velocidade. Google Cloud A pesquisa vetorial no Memorystore for Valkey tira partido das consultas com várias linhas de execução, o que resulta num elevado débito de consultas (CPS) com baixa latência.

Abordagens para usar a pesquisa vetorial para IA generativa no Memorystore for Valkey

O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar a encontrar o equilíbrio certo entre velocidade e precisão. A opção Hierarchical Navigable Small World (HNSW) oferece resultados rápidos e aproximados, ideais para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se precisar de precisão absoluta, a abordagem FLAT produz respostas exatas, embora possa demorar ligeiramente mais tempo a processar.

Se quiser otimizar a sua aplicação para as velocidades de leitura e escrita de dados vetoriais mais rápidas, o Memorystore for Valkey é provavelmente a melhor opção para si.