生成 AI アプリケーションのベクトル検索

このページでは、Memorystore for Valkey がベクトル検索機能を使用して、検索拡張生成(RAG)や LangChain などの生成 AI アプリケーションのベクトルデータの保存とクエリをサポートする方法について説明します。

LangChain で生成 AI にベクトル検索を使用する

Memorystore for Valkey のベクトル検索は、オープンソースの LLM フレームワーク LangChain と互換性があります。LangChain でベクトル検索を使用すると、次のユースケースのソリューションを構築できます。

  • RAG
  • LLM キャッシュ
  • レコメンデーション エンジン
  • セマンティック検索
  • 画像類似性検索

Memorystore for Valkey の生成 AI におけるベクトル検索のメリット

他の Google Cloud データベースと比較して、Memorystore を使用して生成 AI データを保存する利点は、その速度です。Memorystore for Valkey のベクトル検索はマルチスレッド クエリを活用し、低レイテンシで高スループットのクエリ処理(QPS)を実現します。

Memorystore for Valkey で生成 AI にベクトル検索を使用する方法

Memorystore には、処理速度と精度のバランスをとるために 2 つの異なる検索アプローチも用意されています。「Hierarchical Navigable Small World」(HNSW)オプションは、概算値をすばやく取得できるため、近似一致で十分な大規模なデータセットに最適です。厳密な精度が必要な場合については、FLAT アプローチによって正確な結果が生成されますが、処理に要する時間が若干長くなる可能性があります。

ベクトルデータの読み取り / 書き込み速度を最速にするようにアプリケーションを最適化する場合は、Memorystore for Valkey が最適なオプションとなる可能性があります。