Paramètres de l'outil de datastore

Les paramètres de configuration suivants sont disponibles pour l'outil de datastore.

Paramètres de l'outil (console Agents conversationnels uniquement)

Si vous sélectionnez une option dans le menu déroulant Paramètres de l'outil , cela affecte automatiquement les autres configurations d'outil disponibles.

Les options Default et Optimized for voice sont des paramètres par défaut qui configurent automatiquement tous les autres paramètres du menu de configuration de l'outil.

Les options suivantes sont disponibles :

Nom du paramètre de l'outil Description
Par défaut Optimisé pour tous les types d'agents.
Optimisé pour la voix Ce type d'outil par défaut a été configuré spécifiquement pour les agents vocaux.
Personnaliser L'option Customize vous permet de spécifier vos propres paramètres de surface de référence, de réécriture et de résumé au lieu d'utiliser les valeurs par défaut attribuées Default et Optimized for voice.

Surface de référence

Dialogflow CX calcule un niveau de confiance pour chaque réponse générée à partir du contenu de vos datastores connectés. Cela permet d'évaluer la confiance que toutes les informations contenues dans la réponse sont compatibles avec les informations des datastores. Vous pouvez ajuster les réponses autorisées en sélectionnant le niveau de confiance le plus bas qui vous convient. Vous pouvez sélectionner le niveau de confiance le plus bas autorisé, et l'agent ne renverra pas de réponses inférieures à ce niveau.

Vous avez le choix entre cinq niveaux de confiance : VERY_LOW, LOW, MEDIUM, HIGH, et VERY_HIGH.

Vous pouvez également appliquer un filtre heuristique de surface de référence. Si cette option est activée, les réponses contenant du contenu susceptible d'être inexact en raison d'hallucinations courantes sont supprimées.

Sélectionner un modèle de résumé

Vous pouvez sélectionner le modèle génératif utilisé par un agent de data store pour la requête générative de résumé. Le tableau suivant contient les options disponibles :

Nom du modèle Étape de lancement Spécifications du modèle
Par défaut GA Il s'agit de la configuration recommandée, qui peut changer au fil du temps. Si vous utilisez cette option, le comportement de l'agent peut changer (probablement en mieux). Si vous souhaitez que le comportement de l'agent soit plus cohérent, sélectionnez un modèle spécifique.
Désactivé GA Uniquement disponible dans Customer Engagement AI. Désactive le composant de résumé dans l'outil de datastore. La latence sera améliorée, mais la qualité sera dégradée.
Résumé par l'agent GA Uniquement disponible dans Customer Engagement AI. Cette option délègue le résumé à l'agent. Elle est spécifiquement optimisée pour les interactions vocales avec une latence optimisée.
gemini-2.5-flash GA Gemini 2.5 flash
gemini-2.5-flash-lite GA Gemini 2.5 flash lite
gemini-2.0-flash-001 GA Gemini 2.0 flash
gemini-2.0-flash-lite-001 GA Gemini 2.0 flash lite
gemini-2.0-flash-lite-001-voice-mode GA Gemini 2.0 flash lite optimisé pour la voix.

Tous les modèles listés sont disponibles dans toutes les langues compatibles et régions compatibles.

Prompt personnalisé pour le résumé

Vous pouvez utiliser un prompt de résumé par défaut avec le modèle de résumé sélectionné ou fournir le vôtre. Le prompt est un modèle de texte qui peut contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacés par les valeurs appropriées au moment de l'exécution, et le texte final sera envoyé au LLM.

Les espaces réservés sont les suivants :

  • $original-query : texte de la requête de l'utilisateur.
  • $rewritten-query: Dialogflow utilise un module de réécriture pour réécrire la requête utilisateur d'origine dans un format plus précis.
  • $sources: Dialogflow utilise Enterprise Search pour rechercher des sources en fonction de la requête de l'utilisateur. Les sources trouvées sont affichées dans un format spécifique :

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: les informations sur l'utilisateur qui envoie la requête sont affichées au format suivant :

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: l'historique de la conversation est affiché au format suivant :

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>} : version paramétrée de l'espace réservé $conversation. Vous pouvez personnaliser le préfixe de l'utilisateur final (USER), le préfixe de l'agent (AGENT) et le nombre de tours précédents à inclure (TURNS). Toutes les valeurs des paramètres d'espace réservé doivent être spécifiées.

    Par exemple, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. L'historique de la conversation est affiché comme suit :

    Human says: user's first query
    Agent says: answer to user's first query
    

Un prompt personnalisé doit demander au LLM de renvoyer "NOT_ENOUGH_INFORMATION" lorsqu'il ne peut pas fournir de réponse. Dans ce cas, l'agent appelle un événement sans correspondance.

Exemple :

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Sélectionner un modèle de réécriture

Lorsqu'une requête utilisateur est traitée, l'agent envoie la requête utilisateur et un prompt au LLM pour la refactoriser, ce qui effectue une réécriture.

Vous pouvez sélectionner le modèle génératif utilisé par un agent de data store pour la requête générative de réécriture. Le tableau suivant répertorie les options disponibles :

Nom du modèle Étape de lancement Spécifications du modèle
Par défaut GA Il s'agit de la configuration recommandée, qui peut changer au fil du temps. Si vous utilisez cette option, le comportement de l'agent peut changer (probablement en mieux). Si vous souhaitez que le comportement de l'agent soit plus cohérent, sélectionnez un modèle spécifique.
Réécriture désactivée GA Aucune réécriture de requête n'aura lieu. La latence sera améliorée, mais la qualité sera dégradée. En particulier, l'outil de data store peut avoir du mal à répondre aux questions qui nécessitent un contexte provenant de l'historique de la conversation.
rewrite-by-agent. GA Uniquement disponible dans Customer Engagement AI. Cette option délègue la réécriture à l'agent. Elle est optimisée pour la voix et le texte avec une latence optimisée.
gemini-2.5-flash GA Gemini 2.5 flash
gemini-2.5-flash-lite GA Gemini 2.5 flash lite
gemini-2.0-flash-001 GA Gemini 2.0 flash
gemini-2.0-flash-lite-001 GA Gemini 2.0 flash lite

Tous les modèles listés sont disponibles dans toutes les langues compatibles et régions compatibles.

Prompt personnalisé pour la réécriture

Vous pouvez utiliser un prompt par défaut ou fournir le vôtre. Le prompt est un modèle de texte qui peut contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacés par les valeurs appropriées au moment de l'exécution, et le texte final sera envoyé au LLM.

Les espaces réservés et le texte requis sont les suivants :

  • $original-query : texte de la requête de l'utilisateur.
  • $conversation: l'historique de la conversation est affiché au format suivant :

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>} : version paramétrée de l'espace réservé $conversation. Vous pouvez personnaliser le préfixe de l'utilisateur final (USER), le préfixe de l'agent (AGENT) et le nombre de tours précédents à inclure (TURNS). Toutes les valeurs des paramètres d'espace réservé doivent être spécifiées.

    Par exemple, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. L'historique de la conversation est affiché comme suit :

    Human says: user's first query
    Agent says: answer to user's first query
    
  • $end-user-metadata: les informations sur l'utilisateur qui envoie la requête sont affichées au format suivant :

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    

Exemple :

Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.

Conversation History: $conversation
Human: $original-query
Search Query:

Paramètres de la charge utile

Les paramètres de la charge utile permettent d'ajouter les extraits du data store en tant que contenu enrichi dans la charge utile de la réponse, qui est affichée dans le service de messagerie. Vous pouvez activer ou désactiver cette fonctionnalité.

Configuration de la recherche dans l'outil de datastore

Vous pouvez configurer des paramètres de recherche dynamiques pour affiner vos résultats en fonction du contexte d'une conversation en cours. Pour en savoir plus, consultez la documentation sur la configuration de la recherche.