Auf dieser Seite werden einige Anwendungsfälle für die Entwicklung von LLM-gestützten Anwendungen mit LlamaIndex in Kombination mit AlloyDB Omni beschrieben. Links zu Notebooks auf GitHub helfen Ihnen, Ansätze zu erkunden oder Ihre Anwendung zu entwickeln.
LlamaIndex ist ein Framework für die Orchestrierung generativer KI, mit dem Sie Datenquellen mit Large Language Models (LLMs) verbinden und integrieren können. Mit LlamaIndex können Sie Anwendungen erstellen, die mit Abfragen in natürlicher Sprache auf Informationen aus privaten oder domänenspezifischen Daten zugreifen und diese abfragen.
LlamaIndex fungiert als Brücke zwischen benutzerdefinierten Daten und LLMs und erleichtert die Entwicklung von Wissensassistenten-Anwendungen mit Retrieval-Augmented Generation (RAG).
LlamaIndex eignet sich gut für dokumentenzentrierte Anwendungen, da es das strukturierte Dokumentenmanagement in den Vordergrund stellt, was die Indexierung und den Abruf vereinfacht. Dieses Framework bietet optimierte Abfragemechanismen, die die Geschwindigkeit und Relevanz des Informationszugriffs verbessern, sowie eine robuste Metadatenverarbeitung für eine differenzierte Filterung.
Weitere Informationen zum LlamaIndex-Framework finden Sie in der Produktdokumentation zu LlamaIndex.
LlamaIndex-Komponenten
AlloyDB Omni bietet die folgenden LlamaIndex-Schnittstellen:
- Vektorspeicher
- Dokumentenspeicher
- Indexspeicher
- Chatspeicher
- Dokumentenleser
Informationen zur Verwendung von LlamaIndex finden Sie in der Kurzanleitung für AlloyDB Omni.
Vektorspeicher
Mit dieser LlamaIndex-Integration können Sie die robuste und skalierbare Natur von AlloyDB Omni nutzen, um Ihre LlamaIndex-Daten zu speichern und zu verwalten. Durch die Kombination der Indexierungs- und Abfragefunktionen von LlamaIndex mit der hohen Leistung und Zuverlässigkeit von AlloyDB Omni können Sie effizientere und skalierbarere LLM-gestützte Anwendungen erstellen.
LlamaIndex zerlegt ein Dokument (z. B. DOC, Text und PDFs) in Dokumentkomponenten, die als Knoten bezeichnet werden. Der VectorStore kann nur die Einbettungsvektoren der aufgenommenen Knoteninhalte und den Text der Knoten enthalten. Ein Knoten enthält Textinhalte, Vektoreinbettungen und Metadaten. Sie können Filter auf diese Metadatenfelder anwenden, um den Abruf von Knoten auf diejenigen zu beschränken, die den angegebenen Metadatenkriterien entsprechen.
Verwenden Sie die Klasse AlloyDBVectorStore, um mit Vektorspeichern in AlloyDB Omni zu arbeiten. Weitere Informationen finden Sie unter
LlamaIndex Vector Stores.
Vektoreinbettungen mit der Klasse AlloyDBVectorStore speichern
Im AlloyDB Omni-Notebook für Vektorspeicher erfahren Sie, wie Sie Folgendes tun:
- Erstellen Sie eine
AlloyDBEngine, um mitAlloyDBEngine.from_connection_string()eine Verbindung zu Ihrer AlloyDB Omni-Instanz herzustellen. - Initialisieren Sie eine Tabelle zum Speichern von Vektoreinbettungen.
- Erstellen Sie eine Einbettungsklasseninstanz mit einem beliebigen LlamaIndex-Einbettungsmodell.
- Initialisieren Sie einen Standard-Vektorspeicher
AlloyDBVectorStore. - Erstellen Sie mit VectorStoreIndex einen Index aus dem Vektorspeicher und fragen Sie ihn ab.
- Erstellen Sie einen benutzerdefinierten Vektorspeicher, um Metadaten zu speichern und zu filtern.
- Fügen Sie einen ANN-Index hinzu, um die Suchlatenz zu verbessern.
Dokumenten- und Indexspeicher
Die LlamaIndex-Integration für Dokumentenspeicher verwaltet die strukturierte Speicherung und den Abruf von Dokumenten und ist für die dokumentenzentrierten Funktionen von LlamaIndex optimiert. Im Dokumentenspeicher werden die Inhalte gespeichert, die sich auf die Vektoren im Vektorspeicher beziehen.
Weitere Informationen finden Sie in der Produktdokumentation zu LlamaIndex Document Stores.
Indexspeicher erleichtern die Verwaltung von Indexen, um schnelle Abfragen und den Datenabruf zu ermöglichen, z. B. Zusammenfassungs-, Keyword- und Baumindexe. Index in LlamaIndex ist ein einfacher Speicher nur für die Knotenmetadaten. Aktualisierungen der Knotenmetadaten erfordern keine Neuindexierung (d. h. keine neue Einbettungserstellung) des vollständigen Knotens oder aller Knoten in einem Dokument.
Weitere Informationen finden Sie unter LlamaIndex Index Stores.
Dokumente und Indexe speichern
Im AlloyDB Omni-Notebook
für Dokumentenspeicher erfahren Sie, wie Sie mit den AlloyDBDocumentStore und AlloyDBIndexStore
Klassen Dokumente und Indexe in AlloyDB Omni speichern. Sie lernen Folgendes:
- Erstellen Sie eine
AlloyDBEngine, um mitAlloyDBEngine.from_connection_string()eine Verbindung zu Ihrer AlloyDB Omni-Instanz herzustellen. - Erstellen Sie Tabellen für den Dokumentenspeicher und den Indexspeicher.
- Initialisieren Sie einen Standard-
AlloyDBDocumentStore. - Richten Sie einen
AlloyDBIndexStoreein. - Fügen Sie dem
DocstoreDokumente hinzu. - Verwenden Sie Dokumentenspeicher mit mehreren Indexen.
- Vorhandene Indexe laden.
Chatspeicher
Chatspeicher verwalten den Unterhaltungsverlauf und den Kontext für chatbasierte Anwendungen und ermöglichen so personalisierte Interaktionen. Chatspeicher bieten ein zentrales Repository, in dem Chatnachrichten in einer Unterhaltung gespeichert und abgerufen werden. So kann das LLM den Kontext beibehalten und relevantere Antworten basierend auf dem laufenden Dialog geben.
Large Language Models sind standardmäßig zustandslos. Das bedeutet, dass sie frühere Eingaben nicht beibehalten, es sei denn, diese Eingaben werden jedes Mal explizit bereitgestellt. Mit einem Chatspeicher können Sie den Kontext der Unterhaltung beibehalten, sodass das Modell im Laufe der Zeit relevantere und kohärentere Antworten generieren kann.
Das Speichermodul in LlamaIndex ermöglicht die effiziente Speicherung und den Abruf von Unterhaltungskontext und ermöglicht so personalisiertere und kontextbezogenere Interaktionen in Chatanwendungen. Sie können das Speichermodul in LlamaIndex mit einem ChatStore und einem ChatMemoryBuffer integrieren. Weitere Informationen finden Sie unter LlamaIndex Chat Stores.
Chatprotokoll speichern
Im AlloyDB Omni-Notebook
für Chatspeicher erfahren Sie, wie Sie AlloyDB for PostgreSQL verwenden, um das Chatprotokoll mit der Klasse AlloyDBChatStore zu speichern. Sie lernen Folgendes:
- Erstellen Sie eine
AlloyDBEngine, um mitAlloyDBEngine.from_connection_string()eine Verbindung zu Ihrer AlloyDB Omni-Instanz herzustellen. - Initialisieren Sie einen Standard-
AlloyDBChatStore. - Erstellen Sie einen
ChatMemoryBuffer. - Erstellen Sie eine LLM-Klasseninstanz.
- Verwenden Sie
AlloyDBChatStoreohne Speicherkontext. - Verwenden Sie
AlloyDBChatStoremit einem Speicherkontext. - Erstellen und verwenden Sie die Chat-Engine.
Dokumentenleser
Der Dokumentenleser ruft Daten aus AlloyDB Omni ab und wandelt sie effizient in LlamaIndex-kompatible Formate für die Indexierung um. Die Dokumentenleser-Schnittstelle bietet Methoden zum Laden von Daten aus einer Quelle als Documents.
Document ist eine Klasse, in der ein Textabschnitt und zugehörige Metadaten gespeichert werden. Mit Dokumentenlesern können Sie Dokumente laden, die Sie in Dokumentenspeichern speichern oder zum Erstellen von Indexen verwenden möchten.
Weitere Informationen finden Sie unter LlamaIndex Document Reader.
Daten als Dokumente abrufen
Im AlloyDB Omni-Notebook
für Dokumentenleser erfahren Sie, wie Sie mit AlloyDB Omni
Daten als Dokumente mit der AlloyDBReader Klasse abrufen. Sie lernen Folgendes:
- Erstellen Sie eine
AlloyDBEngine, um mitAlloyDBEngine.from_connection_string()eine Verbindung zu Ihrer AlloyDB Omni-Instanz herzustellen. AlloyDBReadererstellen.- Dokumente mit dem Argument
table_nameladen. - Dokumente mit einer SQL-Abfrage laden.
- Format für Seiteninhalte festlegen.
- Dokumente laden.
Nächste Schritte
- LLM-gestützte Anwendungen mit LangChain erstellen.
- Informationen zum Bereitstellen von AlloyDB Omni und einem lokalen KI-Modell in Kubernetes.