Auf dieser Seite wird erläutert, wie Sie Antworten anhand Ihrer Daten aus Vertex AI Search fundieren können.
Gemini auf Basis Ihrer Daten fundieren
Wenn Sie Retrieval-Augmented Generation (RAG) verwenden möchten, verbinden Sie Ihr Modell mit Ihren Websitedaten oder Ihren Dokumentsätzen und verwenden Sie dann Fundierung mit Vertex AI Search.
Die Fundierung mit Ihren Daten unterstützt maximal 10 Vertex AI Search-Datenquellen und kann mit der Fundierung mit der Google Suche kombiniert werden.
Unterstützte Modelle
In diesem Abschnitt sind die Modelle aufgeführt, die Grounding mit Ihren Daten unterstützen.
- Gemini 3 Pro Vorschaumodell
- Gemini 3 Pro Image Vorschaumodell
- Gemini 2.5 Pro
- Gemini 2.5 Flash Vorschaumodell
- Gemini 2.5 Flash-Lite Vorschaumodell
- Gemini 2.5 Flash
- Gemini 2.5 Flash-Lite
- Gemini 2.5 Flash mit nativer Audio-Live-API Vorschaumodell
- Gemini 2.0 Flash mit Live API Vorschaumodell
- Gemini 2.0 Flash
Vorbereitung
Bevor Sie die Modellausgabe auf Ihren Daten fundieren können, müssen Sie Folgendes tun:
Rufen Sie in der Google Cloud Console die Seite IAM auf und suchen Sie nach der Berechtigung
discoveryengine.servingConfigs.search, die für die Funktion des Grounding-Dienstes erforderlich ist.KI-Anwendungen aktivieren und die API aktivieren.
AI Applications-Datenquelle und -Anwendung erstellen
Weitere Informationen finden Sie unter Einführung in Vertex AI Search.
KI-Anwendungen aktivieren
Wenn Sie Vertex AI Search verwenden möchten, um Ihre Antworten zu fundieren, müssen Sie den Vertex AI Search-Dienst aktivieren. Gehen Sie dazu so vor:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Optional: Bedingungen für die Datennutzung
AI Applications ist am Standort global oder am multiregionalen Standort eu und us verfügbar. Weitere Informationen finden Sie unter Standorte für KI-Anwendungen.
Datenspeicher in AI Applications erstellen
Wenn Sie einen Datenspeicher in AI Applications erstellen möchten, können Sie Websitedaten oder Dokumente als Grundlage verwenden.
Website
Öffnen Sie die Seite Datenspeicher erstellen in der Google Cloud Console.
Klicken Sie im Feld Websiteinhalte auf Auswählen.
Der Bereich Geben Sie die Websites für den Datenspeicher an wird angezeigt.Wenn Erweiterte Websiteindexierung nicht aktiviert ist, wählen Sie das entsprechende Kästchen aus, um die Option zu aktivieren.
Der Bereich Datenspeicher konfigurieren wird angezeigt.Führen Sie im Abschnitt URL-Muster angeben, die indexiert werden sollen folgende Schritte aus:
- Fügen Sie URLs für Einzuschließende Websites hinzu.
- Optional: Fügen Sie URLs für Auszuschließende Websites hinzu.
Klicken Sie auf Weiter.
Im Bereich Datenspeicher konfigurieren
- Wählen Sie einen Wert aus der Liste Speicherort des Datenspeichers aus.
- Geben Sie im Feld Name des Datenspeichers einen Namen ein. Die ID wird generiert. Verwenden Sie diese ID, wenn Sie Ihre fundierten Antworten mit Ihrem Datenspeicher generieren. Weitere Informationen finden Sie unter Fundierte Antworten mit Ihrem Datenspeicher generieren.
- Klicken Sie auf Erstellen.
Dokumente
Öffnen Sie die Seite Datenspeicher erstellen in der Google Cloud Console.
Klicken Sie im Feld Cloud Storage auf Auswählen.
Der Bereich Daten aus Cloud Storage importieren wird angezeigt.Wählen Sie im Bereich Unstrukturierte Dokumente (PDF, HTML, TXT usw.) die Option Unstrukturierte Dokumente (PDF, HTML, TXT usw.) aus.
Wählen Sie eine Option für die Synchronisierungshäufigkeit aus.
Wählen Sie eine Option unter Ordner oder Datei für Import auswählen aus und geben Sie den Pfad in das Feld ein.
Klicken Sie auf Weiter.
Der Bereich Datenspeicher konfigurieren wird angezeigt.Im Bereich Datenspeicher konfigurieren
- Wählen Sie einen Wert aus der Liste Speicherort des Datenspeichers aus.
- Geben Sie im Feld Name des Datenspeichers einen Namen ein. Die ID wird generiert.
- Wenn Sie Optionen für das Parsen und Aufteilen in Blöcke für Ihre Dokumente auswählen möchten, maximieren Sie den Bereich Dokumentverarbeitungsoptionen. Weitere Informationen zu den verschiedenen Parsern finden Sie unter Dokumente parsen.
- Klicken Sie auf Erstellen.
Klicken Sie auf Erstellen.
Fundierte Antworten mit Ihrem Datenspeicher generieren
Folgen Sie der nachstehenden Anleitung, um ein Modell mit Ihren Daten zu fundieren. Es werden maximal 10 Datenspeicher unterstützt.
Wenn Sie Ihre Datenspeicher-ID nicht kennen, gehen Sie so vor:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf und klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf den Namen des Datenspeichers.
Rufen Sie auf der Datenseite Ihres Datenspeichers die Datenspeicher-ID ab.
Console
Führen Sie die folgenden Schritte aus, um Ihre Modellausgabe mit AI Applications zu fundieren. Dazu nutzen Sie Vertex AI Studio in derGoogle Cloud Console:
- Rufen Sie in der Google Cloud Console die Seite Vertex AI Studio auf.
- So aktivieren Sie die Fundierung:
- Klicken Sie im Navigationsmenü auf + Neu und dann auf Chat.
- Maximieren Sie den Bereich Modelleinstellungen und wählen Sie Ihr Modell aus.
- Optional: Wenn die Ein/Aus-Schaltfläche für Strukturierte Ausgabe oder Fundierung: Google aktiviert ist, deaktivieren Sie die Option.
- Klicken Sie auf den Ein/Aus-Schalter Fundierung: Ihre Daten. Der Bereich Grounding anpassen wird angezeigt.
- Wählen Sie eine Fundierungsquelle aus der folgenden Tabelle aus:
- Geben Sie einen Wert in das Feld Elasticsearch-Endpunkt ein.
- Geben Sie einen Wert in das Feld Elasticsearch-API-Schlüssel ein.
- Geben Sie einen Wert in das Feld Elasticsearch-Index ein.
- Geben Sie einen Wert in das Feld Elasticsearch-Suchvorlage ein.
- Klicken Sie auf Speichern.
Fundierungsoption Beschreibung Eingabe Vertex AI-RAG-Engine Fundierung anhand Ihrer Daten und DIY-Komponenten. Wenn Sie noch kein Korpus haben, müssen Sie eines erstellen. Andernfalls geben Sie Ihren Korpus ein. Vertex AI Search Fundierung anhand Ihrer Daten mit einer von Googleverwalteten Suchmaschine. Geben Sie den Pfad in das Feld Vertex AI-Datenspeicherpfad ein. Elasticsearch Fundierung mit Elasticsearch. Geben Sie die folgenden Informationen ein:
- Geben Sie Ihren Prompt in das Textfeld ein und klicken Sie auf Senden. Ihre Prompt-Antworten basieren auf KI-Anwendungen.
Python
Installieren
pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=global export GOOGLE_GENAI_USE_VERTEXAI=True
from google import genai
from google.genai.types import (
GenerateContentConfig,
VertexAISearch,
Retrieval,
Tool,
HttpOptions,
)
client = genai.Client(http_options=HttpOptions(api_version="v1"))
# Replace with your Vertex AI Search data store details
DATASTORE_PATH = "projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATASTORE_ID"
tool = Tool(
retrieval=Retrieval(
vertex_ai_search=VertexAISearch(
datastore=DATASTORE_PATH
)
)
)
response = client.models.generate_content(
model="gemini-2.5-flash", # Or another supported model
contents="What information can you find about topic X in the provided documents?", # Your query
config=GenerateContentConfig(
tools=[tool],
),
)
print(response.text)
REST
Senden Sie zum Testen eines Text-Prompts mit der Vertex AI API eine POST-Anfrage an den Endpunkt des Publisher-Modells.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der die Anfrage verarbeitet werden soll. Wenn Sie den
global-Endpunkt verwenden möchten, schließen Sie den Standort aus dem Endpunktnamen aus und konfigurieren Sie den Standort der Ressource aufglobal. - PROJECT_ID: Ihre Projekt-ID.
- MODEL_ID: Die Modell-ID des multimodalen Modells.
- PROMPT: Der Prompt, der an das Modell gesendet werden soll.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
JSON-Text anfordern:
{
"contents": [{
"role": "user",
"parts": [{
"text": "PROMPT"
}]
}],
"tools": [{
"retrieval": {
"vertexAiSearch": {
"datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATASTORE_ID
}
}
}],
"model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{
"candidates": [
{
"content": {
"role": "model",
"parts": [
{
"text": "You can make an appointment on the website https://dmv.gov/"
}
]
},
"finishReason": "STOP",
"safetyRatings": [
"..."
],
"groundingMetadata": {
"retrievalQueries": [
"How to make appointment to renew driving license?"
],
"groundingChunks": [
{
"retrievedContext": {
"uri": "https://vertexaisearch.cloud.google.com/grounding-api-redirect/AXiHM.....QTN92V5ePQ==",
"title": "dmv"
}
}
],
"groundingSupport": [
{
"segment": {
"startIndex": 25,
"endIndex": 147
},
"segment_text": "ipsum lorem ...",
"supportChunkIndices": [1, 2],
"confidenceScore": [0.9541752, 0.97726375]
},
{
"segment": {
"startIndex": 294,
"endIndex": 439
},
"segment_text": "ipsum lorem ...",
"supportChunkIndices": [1],
"confidenceScore": [0.9541752, 0.9325467]
}
]
}
}
],
"usageMetadata": {
"..."
}
}
Ihre Antwort verstehen
Die Antwort beider APIs enthält den LLM-generierten Text, der als Kandidat bezeichnet wird. Wenn Ihr Modell-Prompt erfolgreich auf Ihrer Datenquelle basiert, enthalten die Antworten Fundierungsmetadaten, die die Teile der Antwort identifizieren, die aus Ihren Daten abgeleitet wurden. Es gibt jedoch mehrere Gründe, warum diese Metadaten möglicherweise nicht bereitgestellt werden und die Prompt-Antwort nicht fundiert wird. Dazu gehören eine geringe Quellenrelevanz oder unvollständige Informationen in der Antwort des Modells.
Im Folgenden finden Sie eine Aufschlüsselung der Ausgabedaten:
- Rolle: Gibt den Absender der fundierten Antwort an. Da die Antwort immer fundierten Text enthält, ist die Rolle immer
model. - Text: Die fundierte Antwort, die vom LLM generiert wurde.
- Metadaten zur Fundierung: Informationen zur Fundierungsquelle, die die folgenden Elemente enthält:
- Fundierungsblöcke: Eine Liste mit Ergebnissen aus Ihrem Index, die die Antwort unterstützen.
- Fundierung unterstützt: Informationen zu einer bestimmten Behauptung in der Antwort, die zum Anzeigen von Quellenangaben verwendet werden können:
- Segment: Der Teil der Antwort des Modells, der durch einen Fundierungs-Chunk belegt wird.
- Index des Fundierungs-Chunks: Der Index der Fundierungs-Chunks in der Liste der Fundierungs-Chunks, der dieser Behauptung entspricht.
- Konfidenzwerte: Eine Zahl zwischen 0 und 1, die angibt, wie fundiert die Behauptung in den bereitgestellten Grounding-Chunks ist. Nicht verfügbar für Gemini 2.5 und höher.
Nächste Schritte
- Informationen zum Senden von Anfragen für Chat-Prompts finden Sie unter Mehrere Antworten in einem Chat.
- Weitere Informationen zu Best Practices für verantwortungsbewusste KI und den Sicherheitsfiltern von Vertex AI finden Sie unter Best Practices für Sicherheit.