Die folgenden Konfigurationseinstellungen für das Datenspeicher-Tool sind verfügbar.
Tooleinstellungen (nur in der Conversational Agents Console)
Wenn Sie eine Option aus dem Drop-down-Menü Tooleinstellungen auswählen, wirkt sich das automatisch darauf aus, welche anderen Toolkonfigurationen verfügbar sind.
Die Optionen Default und Optimized for voice sind Standardeinstellungen, mit denen
alle anderen Parameter im Menü für die Toolkonfiguration automatisch konfiguriert werden.
Folgende Optionen sind verfügbar:
| Name der Tooleinstellung | Beschreibung |
|---|---|
| Standard | Für alle Agententypen optimiert. |
| Für Sprachausgabe optimiert | Dieser Standard-Tooltyp wurde speziell für Sprachagenten konfiguriert. |
| Anpassen | Wenn Sie die Option Customize auswählen, können Sie eigene Parameter für Fundierung, Rewriter und Zusammenfassung angeben, anstatt die zugewiesenen Standardeinstellungen Default und Optimized for voice zu verwenden. |
Fundierung
Dialogflow CX berechnet für jede Antwort, die aus dem Inhalt Ihrer verbundenen Datenspeicher generiert wird, ein Konfidenzniveau. Dadurch wird die Wahrscheinlichkeit gemessen, dass alle Informationen in der Antwort durch Informationen in den Datenspeichern gestützt werden. Sie können anpassen, welche Antworten zulässig sind, indem Sie das niedrigste Konfidenzniveau auswählen, mit dem Sie zufrieden sind. Sie können das niedrigste zulässige Konfidenzniveau auswählen. Der Agent gibt dann keine Antworten zurück, die unter diesem Niveau liegen.
Sie können zwischen fünf Konfidenzniveaus wählen: VERY_LOW, LOW, MEDIUM,
HIGH, und VERY_HIGH.
Sie können auch einen Filter für Fundierungsheuristiken anwenden. Wenn diese Option aktiviert ist, werden Antworten unterdrückt, die Inhalte enthalten, die aufgrund häufiger Halluzinationen wahrscheinlich ungenau sind.
Zusammenfassungsmodell auswählen
Sie können das generative Modell auswählen, das von einem Datenspeicher-Agenten für die generative Anfrage zur Zusammenfassung verwendet wird. In der folgenden Tabelle sind die verfügbaren Optionen aufgeführt:
| Modellname | Markteinführungsphase | Modellspezifikation |
|---|---|---|
| Standard | GA | Dies ist die empfohlene Konfiguration, die sich im Laufe der Zeit ändern kann. Wenn Sie diese Option verwenden, können sich Änderungen im Verhalten des Agenten ergeben (wahrscheinlich Verbesserungen). Wenn Sie ein konsistenteres Verhalten des Agenten wünschen, wählen Sie ein bestimmtes Modell aus. |
| Deaktiviert | GA | Wird nur unter Customer Engagement AI unterstützt. Deaktiviert die Zusammenfassungskomponente unter „Datenspeicher-Tool“. Die Latenz wird verbessert, aber die Qualität wird geringer. |
| Zusammenfassung durch Agent | GA | Wird nur unter Customer Engagement AI unterstützt. Bei dieser Option wird die Zusammenfassung an den Agenten delegiert. Sie ist speziell für Sprachinteraktionen mit optimierter Latenz optimiert. |
| gemini-2.5-flash | GA | Gemini 2.5 Flash |
| gemini-2.5-flash-lite | GA | Gemini 2.5 Flash Lite |
| gemini-2.0-flash-001 | GA | Gemini 2.0 Flash |
| gemini-2.0-flash-lite-001 | GA | Gemini 2.0 Flash Lite |
| gemini-2.0-flash-lite-001-voice-mode | GA | Gemini 2.0 Flash Lite optimiert für Sprachausgabe. |
Alle aufgeführten Modelle sind in allen unterstützten Sprachen und unterstützten Regionen verfügbar.
Benutzerdefinierter Prompt für die Zusammenfassung
Sie können entweder einen Standard-Prompt für die Zusammenfassung mit dem ausgewählten Zusammenfassungsmodell verwenden oder einen eigenen Prompt angeben. Der Prompt ist eine Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird an das LLM gesendet.
Die Platzhalter sind:
$original-query: Der Abfragetext des Nutzers.$rewritten-query: Dialogflow verwendet ein Rewriter-Modul, um die ursprüngliche Nutzerabfrage in ein genaueres Format umzuschreiben.$sources: Dialogflow verwendet Enterprise Search, um basierend auf der Abfrage des Nutzers nach Quellen zu suchen. Die gefundenen Quellen werden in einem bestimmten Format gerendert:[1] title of first source content of first source [2] title of second source content of second source$end-user-metadata: Informationen zum Nutzer, der die Abfrage sendet, werden im folgenden Format gerendert:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }$conversation: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: Eine parametrisierte Version des Platzhalters$conversation. Sie können das Präfix für den Endnutzer (USER), das Präfix für den Agenten (AGENT) und die Anzahl der vorherigen Züge angeben, die einbezogen werden sollen (TURNS). Alle Platzhalterparameterwerte müssen angegeben werden.Beispiel:
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. Der Unterhaltungsverlauf wird so gerendert:Human says: user's first query Agent says: answer to user's first query
Ein benutzerdefinierter Prompt sollte das LLM anweisen, „NOT_ENOUGH_INFORMATION“ zurückzugeben, wenn es keine Antwort geben kann. In diesem Fall ruft der Agent ein Ereignis ohne Übereinstimmung auf.
Beispiel:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Rewriter-Modell auswählen
Wenn eine Nutzerabfrage verarbeitet wird, sendet der Agent die Nutzerabfrage und einen Prompt an das LLM, um die Nutzerabfrage umzuschreiben. Dies wird als Rewriter bezeichnet.
Sie können das generative Modell auswählen, das von einem Datenspeicher-Agenten für die generative Anfrage des Rewriters verwendet wird. In der folgenden Tabelle sind die verfügbaren Optionen aufgeführt:
| Modellname | Markteinführungsphase | Modellspezifikation |
|---|---|---|
| Standard | GA | Dies ist die empfohlene Konfiguration, die sich im Laufe der Zeit ändern kann. Wenn Sie diese Option verwenden, können sich Änderungen im Verhalten des Agenten ergeben (wahrscheinlich Verbesserungen). Wenn Sie ein konsistenteres Verhalten des Agenten wünschen, wählen Sie ein bestimmtes Modell aus. |
| Rewriter deaktiviert | GA | Es wird keine Abfrage umgeschrieben. Die Latenz wird verbessert, aber die Qualität wird geringer. Insbesondere kann es für das Datenspeicher-Tool schwierig sein, Fragen zu beantworten, die Kontext aus dem Unterhaltungsverlauf erfordern. |
| Umschreiben durch Agent | GA | Wird nur unter Customer Engagement AI unterstützt. Bei dieser Option wird das Umschreiben an den Agenten delegiert. Sie ist für Sprachausgabe und Text mit optimierter Latenz optimiert. |
| gemini-2.5-flash | GA | Gemini 2.5 Flash |
| gemini-2.5-flash-lite | GA | Gemini 2.5 Flash Lite |
| gemini-2.0-flash-001 | GA | Gemini 2.0 Flash |
| gemini-2.0-flash-lite-001 | GA | Gemini 2.0 Flash Lite |
Alle aufgeführten Modelle sind in allen unterstützten Sprachen und unterstützten Regionen verfügbar.
Benutzerdefinierter Prompt für den Rewriter
Sie können einen Standard-Prompt verwenden oder optional einen eigenen Prompt angeben. Der Prompt ist eine Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird an das LLM gesendet.
Die Platzhalter und der erforderliche Text sind:
$original-query: Der Abfragetext des Nutzers.$conversation: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: Eine parametrisierte Version des Platzhalters$conversation. Sie können das Präfix für den Endnutzer (USER), das Präfix für den Agenten (AGENT) und die Anzahl der vorherigen Züge angeben, die einbezogen werden sollen (TURNS). Alle Platzhalterparameterwerte müssen angegeben werden.Beispiel:
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. Der Unterhaltungsverlauf wird so gerendert:Human says: user's first query Agent says: answer to user's first query$end-user-metadata: Informationen zum Nutzer, der die Abfrage sendet, werden im folgenden Format gerendert:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
Beispiel:
Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.
Conversation History: $conversation
Human: $original-query
Search Query:
Nutzlasteinstellungen
Mit den Nutzlasteinstellungen können Sie die Datenspeicher-Snippets als Rich-Content in die Antwortnutzlast einfügen, die im Messenger gerendert wird. Sie können diese Funktion aktivieren oder deaktivieren.
Suchkonfiguration für das Datenspeicher-Tool
Sie können dynamische Suchparameter konfigurieren, um die Ergebnisse basierend auf dem Kontext einer laufenden Unterhaltung zu optimieren. Weitere Informationen finden Sie in der Dokumentation zur Suchkonfiguration.