Ricerca vettoriale per applicazioni di AI generativa

Questa pagina descrive come Memorystore for Redis Cluster supporta l'archiviazione e l'interrogazione di dati vettoriali per applicazioni di AI generativa, come Retrieval Augmented Generation (RAG) e LangChain, utilizzando le funzionalità di ricerca vettoriale.

Utilizzare la ricerca vettoriale per l'AI generativa con LangChain

La ricerca vettoriale su Memorystore for Redis Cluster è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain ti consente di creare soluzioni per i seguenti casi d'uso:

  • RAG
  • Cache LLM
  • Motore per suggerimenti
  • Ricerca semantica
  • Ricerca di immagini simili

Vantaggi della ricerca vettoriale per l'AI generativa in Memorystore for Redis Cluster

Il vantaggio di utilizzare Memorystore per archiviare i dati dell'AI generativa rispetto ad altri database Google Cloud è la sua velocità. La ricerca vettoriale su Memorystore for Redis Cluster sfrutta le query multithread, con conseguente elevata velocità effettiva delle query (QPS) a bassa latenza.

Approcci all'utilizzo della ricerca vettoriale per l'AI generativa in Memorystore for Redis Cluster

Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione Hierarchical Navigable Small World (HNSW) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio FLAT produce risposte esatte, anche se potrebbe richiedere un po' più di tempo per l'elaborazione.

Se vuoi ottimizzare la tua applicazione per le velocità di lettura e scrittura dei dati vettoriali più elevate, Memorystore for Redis Cluster è probabilmente l'opzione migliore per te.