適用於生成式 AI 應用程式的向量搜尋

本頁面說明 Memorystore for Valkey 如何支援儲存及查詢向量資料,以供生成式 AI 應用程式 (例如檢索增強生成 (RAG) 和 LangChain) 使用向量搜尋功能。

使用 LangChain 搭配向量搜尋功能,建構生成式 AI 應用程式

Memorystore for Valkey 的向量搜尋功能與開放原始碼 LLM 架構 LangChain 相容。搭配 LangChain 使用向量搜尋,可為下列用途建構解決方案:

  • RAG
  • LLM 快取
  • 推薦引擎
  • 語意搜尋
  • 圖片相似度搜尋

Memorystore for Valkey 中生成式 AI 的向量搜尋優點

相較於其他 Google Cloud 資料庫,使用 Memorystore 儲存生成式 AI 資料的優勢在於速度。Memorystore for Valkey 的向量搜尋功能會運用多執行緒查詢,以低延遲時間實現高查詢處理量 (QPS)。

在 Memorystore for Valkey 中使用向量搜尋進行生成式 AI 的方法

Memorystore 也提供兩種不同的搜尋方法,協助您在速度和準確度之間取得適當平衡。「階層式可導覽小世界」(HNSW) 選項可提供快速的近似結果,適用於高度相似的大型資料集。如果需要絕對精確的答案,FLAT 方法可提供準確答案,但處理時間可能稍長。

如要將應用程式最佳化,以達到最快的向量資料讀取和寫入速度,Memorystore for Valkey 可能是最適合您的選項。