Sono disponibili le seguenti impostazioni di configurazione dello strumento datastore.
Impostazioni dello strumento (solo console degli agenti conversazionali)
La selezione di un'opzione dal menu a discesa Impostazioni dello strumento influisce automaticamente sulle altre configurazioni dello strumento disponibili.
Le opzioni Default e Optimized for voice sono impostazioni predefinite che configurano automaticamente tutti gli altri parametri nel menu di configurazione dello strumento.
Sono disponibili le seguenti opzioni:
| Nome dell'impostazione dello strumento | Descrizione |
|---|---|
| Default | Ottimizzato per tutti i tipi di agenti. |
| Ottimizzato per la voce | Questo tipo di strumento predefinito è stato configurato specificamente per gli agenti vocali. |
| Personalizza | La scelta dell'opzione Customize consente di specificare i propri parametri di grounding, riscrittura e riepilogo anziché utilizzare i valori predefiniti assegnati Default e Optimized for voice. |
Grounding
Dialogflow CX calcola un livello di attendibilità per ogni risposta generata dai contenuti dei datastore connessi. Questo misura l'attendibilità che tutte le informazioni nella risposta siano supportate dalle informazioni nei datastore. Puoi modificare le risposte consentite selezionando il livello di attendibilità più basso che ritieni accettabile. Puoi selezionare il livello di attendibilità più basso consentito e l'agente non restituirà risposte inferiori a questo livello.
Sono disponibili 5 livelli di attendibilità: VERY_LOW, LOW, MEDIUM,
HIGH, e VERY_HIGH.
Puoi anche applicare un filtro euristico di grounding. Se abilitato, le risposte contenenti contenuti che potrebbero essere imprecisi in base alle allucinazioni comuni vengono eliminate.
Seleziona modello di riepilogo
Puoi selezionare il modello generativo utilizzato da un agente datastore per la richiesta generativa di riepilogo. La tabella seguente contiene le opzioni disponibili:
| Nome modello | Fase di avvio | Specifica del modello |
|---|---|---|
| Default | GA | Questa è la configurazione consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti riscontrare modifiche nel comportamento dell'agente (probabilmente miglioramenti). Se vuoi una maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico. |
| Disabilitato | GA | Supportato solo in AI per il coinvolgimento dei clienti. Disabilita il componente di riepilogo in Strumento datastore. La latenza migliorerà, ma la qualità peggiorerà. |
| Riepilogo per agente | GA | Supportato solo in AI per il coinvolgimento dei clienti. Questa opzione delega il riepilogo all'agente. È ottimizzato in modo specifico per le interazioni vocali con latenza ottimizzata. |
| gemini-2.5-flash | GA | Gemini 2.5 flash |
| gemini-2.5-flash-lite | GA | Gemini 2.5 flash lite |
| gemini-2.0-flash-001 | GA | Gemini 2.0 flash |
| gemini-2.0-flash-lite-001 | GA | Gemini 2.0 flash lite |
| gemini-2.0-flash-lite-001-voice-mode | GA | Gemini 2.0 flash lite ottimizzato per la voce. |
Tutti i modelli elencati sono disponibili in tutte le lingue supportate e le regioni supportate.
Prompt personalizzato per il riepilogo
Puoi utilizzare un prompt di riepilogo predefinito con il modello di riepilogo selezionato o fornirne uno tuo. Il prompt è un modello di testo che può contenere segnaposto predefiniti. I segnaposto verranno sostituiti con i valori appropriati in fase di runtime e il testo finale verrà inviato all'LLM.
I segnaposto sono i seguenti:
$original-query: il testo della query dell'utente.$rewritten-query: Dialogflow utilizza un modulo di riscrittura per riscrivere la query originale dell'utente in un formato più accurato.$sources: Dialogflow utilizza Enterprise Search per cercare le origini in base alla query dell'utente. Le origini trovate vengono visualizzate in un formato specifico:[1] title of first source content of first source [2] title of second source content of second source$end-user-metadata: le informazioni sull'utente che invia la query vengono visualizzate nel seguente formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }$conversation: la cronologia delle conversazioni viene visualizzata nel seguente formato:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: una versione con parametri del segnaposto$conversation. Puoi personalizzare il prefisso dell'utente finale (USER), il prefisso dell'agente (AGENT) e il numero di turni precedenti da includere (TURNS). È necessario specificare tutti i valori dei parametri dei segnaposto.Ad esempio,
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. La cronologia delle conversazioni viene visualizzata come:Human says: user's first query Agent says: answer to user's first query
Un prompt personalizzato deve indicare all'LLM di restituire "NOT_ENOUGH_INFORMATION" quando non è in grado di fornire una risposta. In questo caso, l'agente richiamerà un evento di mancata corrispondenza.
Ad esempio:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Seleziona modello di riscrittura
Quando viene elaborata una query dell'utente, l'agente invia la query dell'utente e un prompt all'LLM per rifattorizzare la query dell'utente, che esegue una riscrittura.
Puoi selezionare il modello generativo utilizzato da un agente datastore per la richiesta generativa di riscrittura. La tabella seguente elenca le opzioni disponibili:
| Nome modello | Fase di avvio | Specifica del modello |
|---|---|---|
| Default | GA | Questa è la configurazione consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti riscontrare modifiche nel comportamento dell'agente (probabilmente miglioramenti). Se vuoi una maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico. |
| Riscrittura disabilitata | GA | Non verrà eseguita alcuna riscrittura della query. La latenza migliorerà, ma la qualità peggiorerà. In particolare, lo strumento datastore potrebbe avere difficoltà a rispondere alle domande che richiedono il contesto della cronologia delle conversazioni. |
| rewrite-by-agent. | GA | Supportato solo in AI per il coinvolgimento dei clienti. Questa opzione delega la riscrittura all'agente. È ottimizzato sia per la voce che per il testo con latenza ottimizzata. |
| gemini-2.5-flash | GA | Gemini 2.5 flash |
| gemini-2.5-flash-lite | GA | Gemini 2.5 flash lite |
| gemini-2.0-flash-001 | GA | Gemini 2.0 flash |
| gemini-2.0-flash-lite-001 | GA | Gemini 2.0 flash lite |
Tutti i modelli elencati sono disponibili in tutte le lingue supportate e le regioni supportate.
Prompt personalizzato per la riscrittura
Puoi utilizzare un prompt predefinito o, facoltativamente, fornirne uno tuo. Il prompt è un modello di testo che può contenere segnaposto predefiniti. I segnaposto verranno sostituiti con i valori appropriati in fase di runtime e il testo finale verrà inviato all'LLM.
I segnaposto e il testo obbligatorio sono i seguenti:
$original-query: il testo della query dell'utente.$conversation: la cronologia delle conversazioni viene visualizzata nel seguente formato:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: una versione con parametri del segnaposto$conversation. Puoi personalizzare il prefisso dell'utente finale (USER), il prefisso dell'agente (AGENT) e il numero di turni precedenti da includere (TURNS). È necessario specificare tutti i valori dei parametri dei segnaposto.Ad esempio,
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. La cronologia delle conversazioni viene visualizzata come:Human says: user's first query Agent says: answer to user's first query$end-user-metadata: le informazioni sull'utente che invia la query vengono visualizzate nel seguente formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
Ad esempio:
Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.
Conversation History: $conversation
Human: $original-query
Search Query:
Impostazioni del payload
Le impostazioni del payload consentono di aggiungere gli snippet del datastore come contenuti avanzati nel payload della risposta, che viene visualizzato nel messenger. Puoi attivare o disattivare questa funzionalità.
Configurazione della ricerca dello strumento datastore
Puoi configurare i parametri di ricerca dinamici per ottimizzare i risultati in base al contesto di una conversazione in corso. Per maggiori dettagli, consulta la documentazione sulla configurazione della ricerca.