생성형 AI 애플리케이션을 위한 벡터 검색

이 페이지에서는 벡터 검색 기능을 사용하여 검색 증강 생성(RAG), LangChain과 같은 생성형 AI 애플리케이션의 벡터 데이터를 저장하고 쿼리하는 방법을 설명합니다.

LangChain을 사용하여 생성형 AI를 위한 벡터 검색 사용

Valkey용 Memorystore의 벡터 검색은 오픈소스 LLM 프레임워크 LangChain과 호환됩니다. LangChain과 함께 벡터 검색을 사용하면 다음 사용 사례에 대한 솔루션을 빌드할 수 있습니다.

  • RAG
  • LLM 캐시
  • 추천 엔진
  • 시맨틱 검색
  • 이미지 유사성 검색

Memorystore for Valkey의 생성형 AI를 위한 벡터 검색의 이점

다른 Google Cloud 데이터베이스와 비교했을 때 Memorystore를 사용하여 생성형 AI 데이터를 저장할 때의 이점은 속도입니다. Valkey용 Memorystore의 벡터 검색은 멀티 스레드 쿼리를 활용하므로 지연 시간이 짧고 높은 쿼리 처리량 (QPS)이 높습니다.

Memorystore for Valkey에서 생성형 AI에 벡터 검색을 사용하는 방법

Memorystore는 속도와 정확성 간의 적절한 균형을 찾는 데 도움이 되는 두 가지 고유한 검색 방법을 제공합니다. 계층적 탐색 가능 스몰 월드 (HNSW) 옵션은 근사치의 결과를 빠르게 제공하여 근접 일치로 충분한 대규모 데이터 세트에 적합합니다. 절대 정밀도가 필요한 경우 FLAT 방식은 정확한 답변을 산출하지만 처리하는 데 약간 더 오래 걸릴 수 있습니다.

애플리케이션을 가장 빠른 벡터 데이터 읽기 및 쓰기 속도에 맞게 최적화하려는 경우 Valkey용 Memorystore가 최적의 옵션일 수 있습니다.