Generative KI – Übersicht
In diesem Dokument werden die Funktionen für generative künstliche Intelligenz (KI) beschrieben, die von BigQuery unterstützt werden. Diese Funktionen akzeptieren Eingaben in natürlicher Sprache und verwenden vortrainierte Vertex AI-Modelle und integrierte BigQuery-Modelle.
Übersicht
BigQuery bietet eine Vielzahl von KI-Funktionen, die bei Aufgaben wie den folgenden helfen:
- Kreative Inhalte erstellen.
- Text oder unstrukturierte Daten wie Bilder analysieren, Stimmungen erkennen und Fragen dazu beantworten.
- Fassen Sie die wichtigsten Ideen oder Eindrücke zusammen, die durch die Inhalte vermittelt werden.
- Strukturierte Daten aus Text extrahieren
- Klassifizieren Sie Text oder unstrukturierte Daten in benutzerdefinierte Kategorien.
- Einbettungen generieren, um nach ähnlichen Texten, Bildern und Videos zu suchen
- Bewerten Sie Eingaben, um sie nach Qualität, Ähnlichkeit oder anderen Kriterien zu sortieren.
Die folgenden Kategorien von KI-Funktionen können Ihnen dabei helfen:
Allgemeine KI-Funktionen:Mit diesen Funktionen haben Sie die volle Kontrolle und Transparenz bei der Auswahl von Modell, Prompt und Parametern.
LLM-Inferenz ausführen, z. B. um Fragen zu Ihren Daten zu beantworten
AI.GENERATEist die flexibelste Inferenzfunktion, mit der Sie beliebige unstrukturierte Daten analysieren können.AI.GENERATE_TEXTist eine tabellarische Version vonAI.GENERATE, die auch Partnermodelle und offene Modelle unterstützt.
Strukturierte Ausgabe generieren, z. B. Namen, Adressen oder Objektbeschreibungen aus Text, Dokumenten oder Bildern extrahieren.
AI.GENERATE, wenn Sie ein Ausgabeschema angeben.AI.GENERATE_TABLEist eine tabellarische Version vonAI.GENERATE, mit der ein Remote-Modell aufgerufen und ein benutzerdefiniertes Ausgabeschema angegeben werden kann.- Wenn Ihr Ausgabeschema nur ein Feld enthält, können Sie eine der folgenden spezialisierten Funktionen verwenden:
AI.GENERATE_BOOL,AI.GENERATE_DOUBLEoderAI.GENERATE_INT.
Einbettungen generieren für semantische Suche und Clustering
AI.EMBED: Erstellt eine Einbettung aus Text- oder Bilddaten.AI.GENERATE_EMBEDDING: Eine tabellarische Funktion, die Ihrer Tabelle eine Spalte mit eingebetteten Text-, Bild-, Audio-, Video- oder Dokumentdaten hinzufügt.
Verwaltete KI-Funktionen:Diese Funktionen haben eine optimierte Syntax und sind für Kosten und Qualität optimiert. BigQuery wählt ein Modell für Sie aus.
Daten mit Bedingungen in natürlicher Sprache filtern
AI.IF
Eingabe bewerten, z. B. nach Qualität oder Stimmung
AI.SCORE
Eingaben in benutzerdefinierte Kategorien klassifizieren
AI.CLASSIFY
Aufgabenspezifische Funktionen:Diese Funktionen verwenden Cloud AI-APIs, um Aufgaben wie die Verarbeitung natürlicher Sprache, maschinelle Übersetzung, Dokumentverarbeitung, Audiotranskription und Computer Vision auszuführen.
KI-Funktionen mit allgemeinem Verwendungszweck
Mit KI-Funktionen für allgemeine Zwecke haben Sie die volle Kontrolle und Transparenz bei der Auswahl von Modell, Prompt und Parametern. Die Ausgabe enthält detaillierte Informationen zum Aufruf des Modells, einschließlich des Status und der vollständigen Modellantwort, die Informationen zur Sicherheitsbewertung oder zu Quellenangaben enthalten kann.
LLM-Inferenz durchführen
Die AI.GENERATE-Funktion ist eine flexible Inferenzfunktion, die Anfragen an ein Vertex AI Gemini-Modell sendet und die Antwort des Modells zurückgibt. Mit dieser Funktion können Sie Text-, Bild-, Audio-, Video- oder PDF-Daten analysieren. Sie können beispielsweise Bilder von Einrichtungsgegenständen analysieren, um Text für eine design_type-Spalte zu generieren. So erhält die SKU des Einrichtungsgegenstands eine zugehörige Beschreibung wie mid-century modern oder farmhouse.
Sie können generative KI-Aufgaben ausführen, indem Sie mit Remote-Modellen in BigQuery ML auf Modelle verweisen, die in Vertex AI bereitgestellt oder gehostet werden. Verwenden Sie dazu die tabellenwertige Funktion AI.GENERATE_TEXT.
Sie können die folgenden Typen von Remote-Modellen verwenden:
Remote-Modelle für alle allgemein verfügbaren oder Vorschaumodelle von Gemini zum Analysieren von Text-, Bild-, Audio-, Video- oder PDF-Inhalten aus Standardtabellen oder Objekttabellen mit einem Prompt, den Sie als Funktionsargument angeben.
Remote-Modelle über Anthropic Claude-, Mistral AI - oder Llama-Partnermodelle oder unterstützte offene Modelle verwenden, um einen Prompt zu analysieren, den Sie in einer Abfrage oder aus einer Spalte in einer Standardtabelle angeben.
In den folgenden Themen erfahren Sie, wie Sie die Textgenerierung in BigQuery ML ausprobieren können:
- Text über ein Gemini-Modell und die Funktion
AI.GENERATE_TEXTgenerieren - Text mit einem Gemma-Modell und der Funktion
AI.GENERATE_TEXTgenerieren - Bilder mit einem Gemini-Modell analysieren
- Text mit der Funktion
AI.GENERATE_TEXTund Ihren Daten generieren - Modell mit Ihren Daten abstimmen
Bei einigen Modellen können Sie optional die überwachte Abstimmung konfigurieren. Damit können Sie das Modell mit Ihren eigenen Daten trainieren, um es besser an Ihren Anwendungsfall anzupassen. Alle Inferenzen treten in Vertex AI auf. Die Ergebnisse werden in BigQuery gespeichert.
Strukturierte Daten generieren
Die Generierung strukturierter Daten ähnelt der Textgenerierung sehr, mit dem Unterschied, dass Sie die Antwort des Modells formatieren können, indem Sie ein SQL-Schema angeben. Sie können beispielsweise aus dem Transkript eines Telefonanrufs eine Tabelle mit dem Namen, der Telefonnummer, der Adresse, der Anfrage und dem Preisangebot eines Kunden erstellen.
Sie haben folgende Möglichkeiten, strukturierte Daten zu generieren:
Die
AI.GENERATE-Funktion ruft einen Vertex AI-Endpunkt auf und kann mit Ihrem benutzerdefinierten Schema einenSTRUCT-Wert generieren.Hier erfahren Sie, wie Sie strukturierte Ausgaben verwenden, wenn Sie die Funktion
AI.GENERATEaufrufen.Die Funktion
AI.GENERATE_TABLEruft ein Remote-Modell auf und ist eine Tabellenwertfunktion, die eine Tabelle mit Ihrem benutzerdefinierten Schema generiert.Informationen zum Erstellen strukturierter Daten finden Sie unter Strukturierte Daten mit der Funktion
AI.GENERATE_TABLEgenerieren.Für ein einzelnes Ausgabefeld können Sie eine der folgenden speziellen Inferenzfunktionen verwenden:
Einbettungen generieren
Eine Einbettung ist ein hochdimensionaler numerischer Vektor, der eine bestimmte Entität darstellt, z. B. einen Text oder eine Audiodatei. Durch das Generieren von Einbettungen können Sie die Semantik Ihrer Daten so erfassen, dass sie leichter zu analysieren und zu vergleichen sind.
Im Folgenden sind einige gängige Anwendungsfälle für die Generierung von Einbettungen aufgeführt:
- Mit Retrieval-Augmented Generation (RAG) werden Modellantworten auf Nutzeranfragen durch Verweisen auf zusätzliche Daten aus einer vertrauenswürdigen Quelle ergänzt. RAG bietet eine bessere faktische Richtigkeit und Konsistenz der Antworten und ermöglicht auch den Zugriff auf Daten, die neuer sind als die Trainingsdaten des Modells.
- Multimodale Suche durchführen Zum Beispiel, wenn Sie mit Texteingabe nach Bildern suchen.
- Semantische Suche nach ähnlichen Elementen für Empfehlungen, Ersetzungen und die Deduplizierung von Datensätzen.
- Einbettungen erstellen, die mit einem k-Means-Modell für das Clustering verwendet werden.
Weitere Informationen zum Generieren von Einbettungen und zur Verwendung von Einbettungen für diese Aufgaben finden Sie unter Einführung in Einbettungen und Vektorsuche.
Verwaltete KI-Funktionen
Verwaltete KI-Funktionen wurden speziell für die Automatisierung von Routineaufgaben wie Klassifizierung, Sortierung oder Filterung entwickelt. Diese Funktionen nutzen Gemini und müssen nicht angepasst werden. BigQuery verwendet Prompt Engineering und wählt das geeignete Modell und die entsprechenden Parameter für die jeweilige Aufgabe aus, um die Qualität und Konsistenz Ihrer Ergebnisse zu optimieren.
Jede Funktion gibt einen skalaren Wert zurück, z. B. BOOL, FLOAT64 oder STRING, und enthält keine zusätzlichen Statusinformationen aus dem Modell.
Die folgenden verwalteten KI-Funktionen sind verfügbar:
AI.IF: Text oder multimodale Daten filtern, z. B. in einerWHERE- oderJOIN-Klausel, basierend auf einem Prompt. Sie können beispielsweise Produktbeschreibungen nach Artikeln filtern, die sich gut als Geschenk eignen.AI.SCORE: Bewerten Sie Eingaben basierend auf einem Prompt, um Zeilen nach Qualität, Ähnlichkeit oder anderen Kriterien zu sortieren. Sie können diese Funktion in einerORDER BY-Klausel verwenden, um die K Elemente mit der höchsten Punktzahl zu extrahieren. So können Sie beispielsweise die zehn positivsten oder negativsten Nutzerrezensionen für ein Produkt finden.AI.CLASSIFY: Text in benutzerdefinierte Kategorien klassifizieren. Sie können diese Funktion in einerGROUP BY-Klausel verwenden, um Eingaben entsprechend den von Ihnen definierten Kategorien zu gruppieren. Sie können Supporttickets beispielsweise danach klassifizieren, ob sie sich auf die Abrechnung, den Versand, die Produktqualität oder etwas anderes beziehen.
Eine Anleitung mit Beispielen für die Verwendung dieser Funktionen finden Sie unter Semantische Analyse mit verwalteten KI-Funktionen durchführen.
Ein Notebook-Tutorial zur Verwendung von verwalteten und allgemeinen KI-Funktionen finden Sie unter Semantische Analyse mit KI-Funktionen.
Aufgabenspezifische Funktionen
Zusätzlich zu den allgemeineren Funktionen, die in den vorherigen Abschnitten beschrieben werden, können Sie in BigQuery ML aufgabenspezifische Lösungen mit Cloud AI APIs entwickeln. Zu den unterstützten Aufgaben gehören folgende:
- Natural Language Processing
- Maschinelle Übersetzung
- Dokumentverarbeitung
- Audiotranskript
- Computer Vision
Weitere Informationen finden Sie unter Aufgabenspezifische Lösungen – Übersicht.
Standorte
Die unterstützten Standorte für Textgenerierungs- und Einbettungsmodelle variieren je nach Modelltyp und ‑version. Weitere Informationen finden Sie unter Standorte.
Preise
Ihnen werden die Rechenressourcen in Rechnung gestellt, die Sie zum Ausführen von Anfragen für Modelle verwenden. Remote-Modelle rufen Vertex AI-Modelle auf. Daher fallen für Anfragen an Remote-Modelle auch Gebühren von Vertex AI an.
Weitere Informationen finden Sie unter BigQuery ML-Preise.
Kosten im Blick behalten
Die generativen KI-Funktionen in BigQuery funktionieren, indem Anfragen an Vertex AI gesendet werden, was Kosten verursachen kann. So verfolgen Sie die Vertex AI-Kosten, die durch einen Job anfallen, den Sie in BigQuery ausführen:
- Abrechnungsberichte in Cloud Billing ansehen
Verwenden Sie Filter, um die Ergebnisse einzugrenzen.
Wählen Sie für Dienste Vertex AI aus.
Wenn Sie die Gebühren für einen bestimmten Job sehen möchten, filtern Sie nach Label.
Legen Sie den Schlüssel auf
bigquery_job_id_prefixund den Wert auf die Job-ID Ihres Jobs fest. Wenn Ihre Job-ID länger als 63 Zeichen ist, verwenden Sie nur die ersten 63 Zeichen. Wenn Ihre Job-ID Großbuchstaben enthält, ändern Sie diese in Kleinbuchstaben. Alternativ können Sie Jobs mit einem benutzerdefinierten Label verknüpfen, um sie später leichter zu finden.
Es kann bis zu 24 Stunden dauern, bis einige Belastungen in Cloud Billing angezeigt werden.
Monitoring
Wenn Sie das Verhalten von KI-Funktionen, die Sie in BigQuery aufrufen, besser nachvollziehen möchten, können Sie die Protokollierung von Anfragen und Antworten aktivieren. So protokollieren Sie die gesamte Anfrage und Antwort, die an Vertex AI gesendet und von Vertex AI empfangen wurde:
Anfrage-/Antwort-Logs in Vertex AI aktivieren Die Logs werden in BigQuery gespeichert. Sie müssen die Protokollierung für jedes Foundation Model und jede Region separat aktivieren. Wenn Sie Abfragen protokollieren möchten, die in der Region
usausgeführt werden, geben Sie die Regionus-central1in Ihrer Anfrage an. Wenn Sie Abfragen protokollieren möchten, die in der Regioneuausgeführt werden, geben Sie in Ihrer Anfrage die Regioneurope-west4an.Führen Sie eine Abfrage mit einer KI-Funktion aus, die einen Aufruf an Vertex AI mit dem Modell ausführt, für das Sie im vorherigen Schritt die Protokollierung aktiviert haben.
Wenn Sie die vollständige Vertex AI-Anfrage und -Antwort aufrufen möchten, fragen Sie Ihre Logging-Tabelle nach Zeilen ab, in denen das Feld
labels.bigquery_job_id_prefixder Spaltefull_requestmit den ersten 63 Zeichen Ihrer Job-ID übereinstimmt. Optional können Sie ein benutzerdefiniertes Abfragelabel verwenden, um die Abfrage in den Logs zu finden.Sie können beispielsweise eine ähnliche Abfrage wie die folgende verwenden:
SELECT * FROM `my_project.my_dataset.request_response_logging` WHERE JSON_VALUE(full_request, '$.labels.bigquery_job_id_prefix') = 'bquxjob_123456...';
Nächste Schritte
- Eine Einführung in KI und ML in BigQuery finden Sie unter Einführung in KI und ML in BigQuery.
- Weitere Informationen zum Ausführen von Inferenzen für Modelle von maschinellem Lernen finden Sie unter Modellinferenz – Übersicht.
- Weitere Informationen zu den unterstützten SQL-Anweisungen und -Funktionen für generative KI-Modelle finden Sie unter End-to-End-Nutzerpfade für generative KI-Modelle.