本頁面說明 Memorystore for Redis Cluster 如何支援儲存及查詢向量資料,以供檢索增強生成 (RAG) 和 LangChain 等生成式 AI 應用程式使用向量搜尋功能。
使用 LangChain 搭配向量搜尋功能,建構生成式 AI 應用程式
Memorystore for Redis Cluster 的向量搜尋功能與開放原始碼 LLM 架構 LangChain 相容。 搭配 LangChain 使用向量搜尋,可為下列用途建構解決方案:
- RAG
- LLM 快取
- 推薦引擎
- 語意搜尋
- 圖片相似度搜尋
在 Memorystore for Redis Cluster 中使用向量搜尋功能,為生成式 AI 應用程式帶來的好處
相較於其他 Google Cloud 資料庫,使用 Memorystore 儲存生成式 AI 資料的優勢在於速度。Memorystore for Redis Cluster 的向量搜尋功能採用多執行緒查詢,因此查詢處理量 (QPS) 高,延遲時間短。
在 Memorystore for Redis Cluster 中使用向量搜尋功能進行生成式 AI 的方法
Memorystore 也提供兩種不同的搜尋方法,協助您在速度和準確率之間取得適當平衡。階層式可導覽小世界 (HNSW) 選項可提供快速的近似結果,適用於高度相似的大型資料集。如果需要絕對精確的答案,FLAT 方法可提供準確回覆,但處理時間可能稍長。
如要將應用程式最佳化,以達到最快的向量資料讀取和寫入速度,Memorystore for Redis Cluster 可能是最佳選擇。