生成 AI アプリケーションのベクトル検索

このページでは、Memorystore for Redis Cluster がベクトル検索機能を使用して、検索拡張生成(RAG)や LangChain などの生成 AI アプリケーションのベクトル データの保存とクエリをサポートする方法について説明します。

LangChain を使用して生成 AI のベクトル検索を行う

Memorystore for Redis Cluster のベクトル検索は、オープンソースの LLM フレームワーク LangChain と互換性があります。LangChain でベクトル検索を使用すると、次のユースケースのソリューションを構築できます。

  • RAG
  • LLM キャッシュ
  • レコメンデーション エンジン
  • セマンティック検索
  • 画像類似性検索

Memorystore for Redis Cluster の生成 AI のベクトル検索のメリット

他の Google Cloud データベースと比較して、Memorystore を使用して生成 AI データを保存する利点は、その速度です。Memorystore for Redis Cluster のベクトル検索はマルチスレッド クエリを活用し、低レイテンシで高スループットのクエリ処理(QPS)を実現します。

Memorystore for Redis Cluster で生成 AI にベクトル検索を使用する方法

Memorystore には、処理速度と精度のバランスをとれるように、2 つの異なる検索アプローチも用意されています。「Hierarchical Navigable Small World」(HNSW)オプションは、概算値をすばやく取得できるため、近似一致で十分な大規模なデータセットに最適です。厳密な精度が必要な場合については、FLAT アプローチによって正確な結果が生成されますが、処理に要する時間が若干長くなる可能性があります。

ベクトルデータの読み取り / 書き込み速度を最速にするようにアプリケーションを最適化する場合は、Memorystore for Redis Cluster が最適なオプションとなる可能性があります。