Esta página descreve como o Memorystore for Valkey suporta o armazenamento e a consulta de dados vetoriais para aplicações de IA generativa, como a geração aumentada de obtenção (RAG) e o LangChain, através da utilização de capacidades de pesquisa vetorial.
Use a pesquisa vetorial para IA generativa com o LangChain
A pesquisa vetorial no Memorystore for Valkey é compatível com a framework de LLM de código aberto LangChain. A utilização da pesquisa vetorial com o LangChain permite-lhe criar soluções para os seguintes exemplos de utilização:
- RAG
- Cache de LLM
- Motor de recomendação
- Pesquisa semântica
- Pesquisa de semelhança de imagens
Vantagens da pesquisa vetorial para a IA generativa no Memorystore for Valkey
A vantagem de usar o Memorystore para armazenar os seus dados de IA generativa, em comparação com outras bases de dados, é a sua velocidade. Google Cloud A pesquisa vetorial no Memorystore for Valkey tira partido das consultas com várias linhas de execução, o que resulta num elevado débito de consultas (CPS) com baixa latência.
Abordagens para usar a pesquisa vetorial para IA generativa no Memorystore for Valkey
O Memorystore também oferece duas abordagens de pesquisa distintas para ajudar a encontrar o equilíbrio certo entre velocidade e precisão. A opção Hierarchical
Navigable Small World (HNSW) oferece resultados rápidos e aproximados, ideais
para grandes conjuntos de dados em que uma correspondência próxima é suficiente. Se precisar de precisão
absoluta, a abordagem FLAT produz respostas exatas, embora possa demorar
ligeiramente mais tempo a processar.
Se quiser otimizar a sua aplicação para as velocidades de leitura e escrita de dados vetoriais mais rápidas, o Memorystore for Valkey é provavelmente a melhor opção para si.