Halaman ini memperkenalkan cara membangun aplikasi yang didukung model bahasa besar (LLM) menggunakan LangChain. Ringkasan di halaman ini ditautkan ke panduan prosedur di GitHub.
Apa itu LangChain?
LangChain adalah framework orkestrasi LLM yang membantu developer membangun aplikasi AI generatif atau alur kerja retrieval-augmented generation (RAG). Vertex AI menyediakan struktur, alat, dan komponen untuk menyederhanakan alur kerja LLM yang kompleks.
Untuk mengetahui informasi selengkapnya tentang LangChain, lihat halaman Google LangChain. Untuk mengetahui informasi selengkapnya tentang framework LangChain, lihat dokumentasi produk LangChain.
Komponen LangChain untuk Memorystore for Valkey
Memorystore for Valkey menawarkan antarmuka LangChain berikut:
Pelajari cara menggunakan LangChain dengan Panduan Memulai LangChain.
Penyimpanan vektor untuk Memorystore for Valkey
Penyimpanan vektor mengambil dan menyimpan dokumen serta metadata dari database vektor. Penyimpanan vektor memberi aplikasi kemampuan untuk melakukan penelusuran semantik yang menafsirkan makna kueri pengguna. Jenis penelusuran ini disebut penelusuran vektor, dan dapat menemukan topik yang cocok dengan kueri secara konseptual. Pada waktu kueri, penyimpanan Vektor mengambil vektor embedding yang paling mirip dengan embedding permintaan penelusuran. Di LangChain, penyimpanan vektor menangani penyimpanan data tersemat dan melakukan penelusuran vektor untuk Anda.
Untuk menggunakan penyimpanan vektor di Memorystore for Valkey, gunakan class RedisVectorStore.
Untuk mengetahui informasi selengkapnya, lihat dokumentasi produk LangChain.
Panduan prosedur penyimpanan vektor
Panduan untuk Vector store menunjukkan cara melakukan hal berikut:
- Instal paket integrasi dan LangChain.
- Lakukan inisialisasi indeks vektor.
- Siapkan dokumen untuk Vector store.
- Menambahkan dokumen ke penyimpanan Vektor.
- Lakukan penelusuran kesamaan (KNN).
- Lakukan penelusuran kemiripan berbasis rentang.
- Lakukan penelusuran Maximal Marginal Relevance (MMR).
- Menggunakan penyimpanan Vektor sebagai Retriever.
- Menghapus dokumen dari penyimpanan Vektor.
- Menghapus indeks vektor.
Pemuat dokumen untuk Memorystore for Valkey
Pemuat dokumen menyimpan, memuat, dan menghapus objek LangChain Document.
Misalnya, Anda dapat memuat data untuk diproses menjadi embedding dan menyimpannya di penyimpanan Vektor atau menggunakannya sebagai alat untuk memberikan konteks spesifik ke rangkaian.
Untuk memuat dokumen dari pemuat dokumen di Memorystore for Valkey, gunakan
class MemorystoreDocumentLoader. Untuk menyimpan dan menghapus dokumen, gunakan class
MemorystoreDocumentSaver.
Untuk mengetahui informasi selengkapnya, lihat Pemuat dokumen.
Panduan prosedur pemuat dokumen
Panduan untuk pemuat dokumen menunjukkan cara melakukan hal berikut:
- Instal paket integrasi dan LangChain.
- Memuat dokumen dari tabel.
- Tambahkan filter ke pemuat dokumen.
- Sesuaikan koneksi dan autentikasi.
- Sesuaikan pembuatan dokumen dengan menentukan konten dan metadata pelanggan.
- Gunakan dan sesuaikan class
MemorystoreDocumentSaveruntuk menyimpan dan menghapus dokumen.
Histori pesan Chat untuk Memorystore for Valkey
Aplikasi tanya jawab memerlukan histori hal-hal yang diucapkan dalam percakapan untuk memberikan konteks aplikasi dalam menjawab pertanyaan lebih lanjut dari pengguna. Class ChatMessageHistory LangChain memungkinkan aplikasi menyimpan pesan ke database dan mengambilnya saat diperlukan untuk merumuskan jawaban lebih lanjut. Pesan dapat berupa pertanyaan, jawaban, pernyataan, sapaan, atau teks lain yang diberikan pengguna atau aplikasi selama percakapan.
ChatMessageHistory menyimpan setiap pesan dan merangkai pesan untuk setiap percakapan.
Memorystore for Valkey memperluas class ini dengan MemorystoreChatMessageHistory.
Panduan prosedur histori pesan chat
Panduan untuk histori pesan chat menunjukkan cara:
- Instal LangChain dan lakukan autentikasi ke Google Cloud.
- Lakukan inisialisasi class
MemorystoreChatMessageHistoryuntuk menambahkan dan menghapus pesan.