Einführung in Einbettungen und Vektorsuche

Dieses Dokument bietet einen Überblick über Einbettungen und Vektorsuche in BigQuery. Die Vektorsuche ist eine Technik zum Vergleichen ähnlicher Objekte mithilfe von Einbettungen. Sie wird in Google-Produkten wie der Google Suche, YouTube und Google Play verwendet. Mit der Vektorsuche können Sie Suchvorgänge im großen Maßstab durchführen. Wenn Sie Vektorindexe mit der Vektorsuche verwenden, können Sie grundlegende Technologien wie die Indexierung mit invertierten Dateien (Inverted File Indexing, IVF) und den ScaNN-Algorithmus nutzen.

Die Vektorsuche basiert auf Einbettungen. Einbettungen sind hochdimensionale numerische Vektoren, die eine bestimmte Entität darstellen, z. B. einen Text oder eine Audiodatei. Modelle für maschinelles Lernen (ML) verwenden Einbettungen, um semantische Informationen zu solchen Entitäten zu codieren, damit sie leichter verglichen und analysiert werden können. Eine gängige Operation in Clustering-, Klassifizierungs- und Empfehlungsmodellen besteht beispielsweise darin, den Abstand zwischen Vektoren in einem Einbettungsraum zu messen, um Elemente zu finden, die semantisch am ähnlichsten sind.

Dieses Konzept der semantischen Ähnlichkeit und Distanz in einem Einbettungsbereich wird visuell veranschaulicht, wenn Sie sich ansehen, wie verschiedene Elemente dargestellt werden. Begriffe wie Katze, Hund und Löwe, die alle Arten von Tieren darstellen, werden aufgrund ihrer gemeinsamen semantischen Merkmale in diesem Raum nah beieinander gruppiert. Ähnlich würden Begriffe wie Auto, LKW und der allgemeinere Begriff Fahrzeug einen weiteren Cluster bilden. Dies wird in der folgenden Abbildung veranschaulicht:

Semantisch ähnliche Konzepte wie _Katze_, _Hund_ und _Löwe_ oder _Auto_, _Lkw_ und _Fahrzeug_ liegen im Einbettungsbereich nahe beieinander.

Sie sehen, dass die Tier- und Fahrzeugcluster weit voneinander entfernt sind. Die Trennung zwischen den Gruppen veranschaulicht das Prinzip, dass Objekte, die sich im Einbettungsbereich näher beieinander befinden, semantisch ähnlicher sind. Größere Entfernungen weisen auf eine größere semantische Unähnlichkeit hin.

Anwendungsfälle

Die Kombination aus der Generierung von Einbettungen und der Vektorsuche ermöglicht viele interessante Anwendungsfälle. Hier einige mögliche Anwendungsfälle:

  • Retrieval-Augmented Generation (RAG):Dokumente parsen, eine Vektorsuche für Inhalte durchführen und mit Gemini-Modellen zusammengefasste Antworten auf Fragen in natürlicher Sprache generieren – alles in BigQuery. Ein Notebook, das dieses Szenario veranschaulicht, finden Sie unter Vektorsuchanwendung mit BigQuery DataFrames erstellen.
  • Produktalternativen oder passende Produkte empfehlen:E-Commerce-Anwendungen können verbessert werden, indem Produktalternativen basierend auf dem Kundenverhalten und der Produktähnlichkeit vorgeschlagen werden.
  • Log-Analyse:Teams können Anomalien in Logs proaktiv untersuchen und die Analyse beschleunigen. Sie können diese Funktion auch verwenden, um den Kontext für LLMs anzureichern und so die Workflows für die Bedrohungserkennung, die Forensik und die Fehlerbehebung zu verbessern. Ein Notebook, das dieses Szenario veranschaulicht, finden Sie unter Log Anomaly Detection & Investigation with Text Embeddings + BigQuery Vector Search.
  • Clustering und Targeting:Zielgruppen präzise segmentieren. So könnte eine Krankenhauskette Patienten anhand von Notizen in natürlicher Sprache und strukturierten Daten gruppieren oder ein Marketer Anzeigen basierend auf der Suchanfrage ausrichten. Ein Notebook, das dieses Szenario veranschaulicht, finden Sie unter Create-Campaign-Customer-Segmentation.
  • Entitätenabgleich und Deduplizierung:Daten bereinigen und konsolidieren. So könnte beispielsweise ein Werbeunternehmen Datensätze mit personenbezogenen Daten deduplizieren oder ein Immobilienunternehmen übereinstimmende Postadressen ermitteln.

Einbettungen generieren

In den folgenden Abschnitten werden die Funktionen beschrieben, die BigQuery bietet, um Einbettungen zu generieren oder damit zu arbeiten.

Einzelne Einbettungen generieren

Sie können die AI.EMBED-Funktion mit Vertex AI-Einbettungsmodellen verwenden, um eine einzelne Einbettung Ihrer Eingabe zu generieren.

Die Funktion AI.EMBED unterstützt die folgenden Eingabetypen:

Tabelle mit Einbettungen erstellen

Mit AI.GENERATE_EMBEDDING können Sie eine Tabelle mit Einbettungen für alle Daten in einer Spalte Ihrer Eingabetabelle erstellen. Bei allen Arten von unterstützten Modellen funktioniert AI.GENERATE_EMBEDDING mit strukturierten Daten in Standardtabellen. Bei multimodalen Einbettungsmodellen funktioniert AI.GENERATE_EMBEDDING auch mit visuellen Inhalten aus Standardtabellenspalten, die ObjectRef-Werte enthalten, oder aus Objekttabellen.

Bei Remote-Modellen erfolgt die gesamte Inferenz in Vertex AI. Bei anderen Modelltypen erfolgt die gesamte Inferenz in BigQuery. Die Ergebnisse werden in BigQuery gespeichert.

In den folgenden Themen erfahren Sie, wie Sie die Generierung von Einbettungen in BigQuery ML ausprobieren können:

Autonome Generierung von Einbettungen

Mit der autonomen Generierung von Einbettungen können Sie das Erstellen, Verwalten und Abfragen von Einbettungen vereinfachen. In BigQuery wird eine Spalte mit Einbettungen in Ihrer Tabelle auf Grundlage einer Quellspalte verwaltet. Wenn Sie Daten in der Quellspalte hinzufügen oder ändern, generiert oder aktualisiert BigQuery die Einbettungsspalte für diese Daten automatisch mit einem Vertex AI-Einbettungsmodell. Das ist hilfreich, wenn Sie möchten, dass BigQuery Ihre Einbettungen verwaltet, wenn Ihre Quelldaten regelmäßig aktualisiert werden.

Die folgenden Suchfunktionen sind verfügbar:

  • VECTOR_SEARCH: Vektorsuche mit SQL durchführen.

  • AI.SEARCH (Vorschau): Sucht nach Ergebnissen, die einem von Ihnen angegebenen String ähneln. Sie können diese Funktion verwenden, wenn für Ihre Tabelle die autonome Einbettungsgenerierung aktiviert ist.

  • AI.SIMILARITY (Vorschau): Vergleichen Sie zwei Eingaben, indem Sie die Kosinusähnlichkeit zwischen ihren Einbettungen berechnen. Diese Funktion eignet sich gut, wenn Sie nur wenige Vergleiche durchführen möchten und keine Einbettungen vorab berechnet haben. Sie sollten VECTOR_SEARCH verwenden, wenn die Leistung entscheidend ist und Sie mit einer großen Anzahl von Einbettungen arbeiten. Vergleichen Sie die Funktionen, um die beste Funktion für Ihren Anwendungsfall auszuwählen.

Optional können Sie mit der CREATE VECTOR INDEX-Anweisung einen Vektorindex erstellen. Bei Verwendung eines Vektorindex nutzen die Funktionen VECTOR_SEARCH und AI.SEARCH die Suchmethode Annäherung an den nächsten Nachbarn, um die Leistung der Vektorsuche zu verbessern, mit dem Kompromiss: Reduzierung der Trefferquote und damit die Rückgabe von ungefähren Ergebnissen. Ohne Vektorindex verwenden diese Funktionen die Brute-Force-Suche, um die Distanz für jeden Datensatz zu messen. Sie können auch Brute-Force verwenden, um genaue Ergebnisse zu erhalten, auch wenn ein Vektorindex verfügbar ist.

Preise

Für die Funktionen VECTOR_SEARCH und AI.SEARCH sowie die CREATE VECTOR INDEX-Anweisung gelten die Preise für BigQuery-Computing.

  • VECTOR_SEARCH- und AI.SEARCH-Funktionen: Die Ähnlichkeitssuche wird Ihnen mit On-Demand- oder Editions-Preisen in Rechnung gestellt.

    • On-Demand: Die Kosten richten sich nach der Anzahl der gescannten Byte in der Basistabelle, im Index und in der Suchanfrage.
    • Preise für Editionen: Ihnen werden die Slots in Rechnung gestellt, die für die Ausführung des Jobs in Ihrer Reservierungsedition erforderlich sind. Größere, komplexere Ähnlichkeitsberechnungen verursachen höhere Kosten.

  • CREATE VECTOR INDEX-Erklärung: Die für den Aufbau und die Aktualisierung Ihrer Vektorindizes erforderliche Verarbeitung ist kostenlos, solange die Gesamtgröße der indexierten Tabellendaten unter dem Limit pro Organisation liegt. Wenn Sie die Indexierung über dieses Limit hinaus unterstützen möchten, müssen Sie Ihre eigene Reservierung für die Verarbeitung der Indexverwaltungsjobs bereitstellen.

Auch für Einbettungen und Indexe ist Speicherplatz erforderlich. Die Anzahl der als Einbettungen und Indexe gespeicherten Byte unterliegt den Kosten für aktiven Speicher.

  • Für aktive Vektorindexe fallen Speicherkosten an.
  • Die Speichergröße des Index finden Sie in der Ansicht INFORMATION_SCHEMA.VECTOR_INDEXES. Wenn der Vektorindex noch nicht zu 100% abgedeckt ist, wird Ihnen trotzdem alles in Rechnung gestellt, was indexiert wurde. Sie können die Indexabdeckung in der Ansicht INFORMATION_SCHEMA.VECTOR_INDEXES prüfen.

Kontingente und Limits

Weitere Informationen finden Sie unter Limits für Vektorindex und Limits für Funktionen für generative KI.

Beschränkungen

Abfragen, die die Funktion VECTOR_SEARCH oder AI.SEARCH enthalten, werden von BigQuery BI Engine nicht beschleunigt.

Nächste Schritte