Ricerca vettoriale per applicazioni di AI generativa

Questa pagina descrive come Memorystore for Valkey supporta l'archiviazione e l'interrogazione di dati vettoriali per applicazioni di AI generativa, come Retrieval Augmented Generation (RAG) e LangChain, utilizzando le funzionalità di ricerca vettoriale.

Utilizzare la ricerca vettoriale per l'AI generativa con LangChain

La ricerca vettoriale su Memorystore for Valkey è compatibile con il framework LLM open source LangChain. L'utilizzo della ricerca vettoriale con LangChain consente di creare soluzioni per i seguenti casi d'uso:

  • RAG
  • Cache LLM
  • Motore per suggerimenti
  • Ricerca semantica
  • Ricerca per somiglianza delle immagini

Vantaggi della ricerca vettoriale per l'AI generativa in Memorystore for Valkey

Il vantaggio di utilizzare Memorystore per archiviare i dati dell'AI generativa, rispetto ad altri database Google Cloud , è la sua velocità. La ricerca vettoriale su Memorystore for Valkey sfrutta le query multithread, con conseguente throughput di query (QPS) elevato a bassa latenza.

Approcci all'utilizzo della ricerca vettoriale per l'AI generativa in Memorystore for Valkey

Memorystore fornisce anche due approcci di ricerca distinti per aiutarti a trovare il giusto equilibrio tra velocità e accuratezza. L'opzione Hierarchical Navigable Small World (HNSW) offre risultati rapidi e approssimativi, ideale per set di dati di grandi dimensioni in cui è sufficiente una corrispondenza molto ravvicinata. Se hai bisogno di una precisione assoluta, l'approccio FLAT produce risposte esatte, anche se l'elaborazione potrebbe richiedere un po' più di tempo.

Se vuoi ottimizzare la tua applicazione per la massima velocità di lettura e scrittura dei dati vettoriali, Memorystore for Valkey è probabilmente l'opzione migliore per te.