Adattamento vocale

Quando esegui una richiesta di rilevamento dell'intent, puoi fornire facoltativamente phrase_hints per fornire suggerimenti al sistema di riconoscimento vocale. Questi suggerimenti possono aiutarti con il riconoscimento in uno stato di conversazione specifico.

Adattamento vocale automatico

La funzionalità di adattamento automatico del parlato migliora l'accuratezza del riconoscimento vocale del tuo agente utilizzando automaticamente lo stato della conversazione per trasmettere entità pertinenti e frasi di addestramento come suggerimenti per il contesto vocale per tutte le richieste di rilevamento dell'intent. Questa funzionalità è disattivata per impostazione predefinita.

Attivare o disattivare l'adattamento vocale automatico

Per attivare o disattivare l'adattamento vocale automatico:

Console

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Seleziona l'agente.
  4. Fai clic su Impostazioni agente.
  5. Fai clic sulla scheda Voce e IVR.
  6. Attiva o disattiva l'opzione Attiva l'adattamento automatico della voce.
  7. Fai clic su Salva.

API

Consulta i metodi get e patch/update per il tipo Agent.

Seleziona un protocollo e una versione per il riferimento all'agente:

Protocollo V3 V3beta1
REST Risorsa agente Risorsa agente
RPC Interfaccia agente Interfaccia agente
C++ AgentsClient Non disponibile
C# AgentsClient Non disponibile
Go AgentsClient Non disponibile
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponibile Non disponibile
Python AgentsClient AgentsClient
Ruby Non disponibile Non disponibile

Progettazione di agenti per i miglioramenti del riconoscimento vocale

Con l'adattamento automatico del parlato attivato, puoi creare l'agente in modo da sfruttarlo al meglio. Le sezioni seguenti spiegano come il riconoscimento vocale può essere migliorato con alcune modifiche alle frasi di addestramento e alle entità dell'agente.

Frasi di addestramento

  • Se definisci frasi di addestramento con una frase come "naso chiuso", un'espressione simile dell'utente finale viene riconosciuta in modo affidabile come "naso chiuso" e non "cose che sa".
  • Quando hai un parametro obbligatorio che forza Dialogflow a richieste di compilazione di moduli, l'adattamento automatico del parlato tenderà fortemente verso l'entità da compilare.

In tutti i casi, l'adattamento vocale automatico influenza solo il riconoscimento vocale, non lo limita. Ad esempio, anche se Dialogflow chiede all'utente un parametro obbligatorio, gli utenti potranno comunque attivare altri intent, ad esempio un intent di primo livello "parla con un operatore".

Entità di sistema

Se definisci una frase di addestramento che utilizza l'@sys.number entità di sistema , e l'utente finale dice "Ne voglio due", potrebbe essere riconosciuto come "due", "2" o "to".

Con l'adattamento automatico del parlato abilitato, Dialogflow utilizza l'entità @sys.number come suggerimento durante il riconoscimento vocale e il parametro ha più probabilità di essere estratto come "2".

Entità personalizzate

  • Se definisci un'entità personalizzata per i nomi di prodotti o servizi offerti dalla tua azienda e l'utente finale menziona questi termini in un'espressione, è più probabile che vengano riconosciuti. Una frase di addestramento "I love Dialogflow", in cui "Dialogflow" è annotato come entità @product, indica all'adattamento automatico del parlato di dare la priorità a "I love Dialogflow", "I love Cloud Speech" e a tutte le altre voci dell'entità @product.

  • È particolarmente importante definire sinonimi di entità puliti quando utilizzi Dialogflow per rilevare la voce. Immagina di avere due voci di entità @product, "Dialogflow" e "Dataflow". I sinonimi di "Dialogflow" potrebbero essere "Dialogflow", "dialogue flow", "dialogue builder", "Speaktoit", "speak to it", "API.ai", "API dot AI". Questi sono buoni sinonimi perché coprono le varianti più comuni. Non devi aggiungere "il builder del flusso di dialogo" perché "flusso di dialogo" lo include già.

  • Le espressioni dell'utente con entità numeriche consecutive ma distinte possono essere ambigue. Ad esempio, "Voglio due confezioni da 16" potrebbe significare 2 confezioni da 16 o 216 confezioni. L'adattamento del discorso può contribuire a disambiguare questi casi se configuri le entità con valori scritti per esteso:
    • Definisci un'entità quantity con voci:
      zero
      one
      ...
      twenty
    • Definisci un'entità product o size con voci:
      sixteen pack
      two ounce
      ...
      five liter
    • Nell'adattamento vocale vengono utilizzati solo i sinonimi delle entità, quindi puoi definire un'entità con il valore di riferimento 1 e il singolo sinonimo one per semplificare la logica di evasione.

Entità Regexp

Le entità Regexp possono attivare l'adattamento automatico del parlato per sequenze alfanumeriche e numeriche come "ABC123" o "12345" se configurate e testate correttamente.

Per riconoscere queste sequenze tramite la voce, implementa tutti e quattro i requisiti riportati di seguito:

1. Requisito per l'iscrizione di espressioni regolari

Sebbene sia possibile utilizzare qualsiasi espressione regolare per estrarre entità dagli input di testo, solo alcune espressioni indicano all'adattamento automatico del parlato di favorire sequenze alfanumeriche o di cifre scritte per esteso durante il riconoscimento vocale.

Nell'entità regexp, almeno una voce deve rispettare tutte queste regole:

  • Deve corrispondere ad alcuni caratteri alfanumerici, ad esempio: \d, \w, [a-zA-Z0-9]
  • Non deve contenere spazi vuoti   o \s, anche se \s* e \s? sono consentiti
  • Non deve contenere gruppi di acquisizione o non acquisizione ()
  • Non deve tentare di trovare corrispondenze con caratteri speciali o segni di punteggiatura come: ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |

Questa voce può contenere set di caratteri [] e quantificatori di ripetizione come *, ?, +, {3,5}.

Vedi Esempi.

2. Requisito di definizione dei parametri

Contrassegna l'entità regexp come parametro del modulo obbligatorio, in modo che possa essere raccolto durante la compilazione del modulo. Ciò consente all'adattamento vocale automatico di dare la priorità al riconoscimento della sequenza anziché cercare di riconoscere l'intent e la sequenza contemporaneamente. In caso contrario, "Dov'è il mio pacco per ABC123" potrebbe essere riconosciuto erroneamente come "Dov'è il mio pacco 4ABC123".

3. Requisito di annotazione delle frasi di addestramento

Non utilizzare l'entità espressione regolare per un'annotazione della frase di addestramento dell'intent. In questo modo, il parametro viene risolto durante la compilazione del modulo.

4. Requisito di test

Consulta Testare l'adattamento vocale.

Esempi

Ad esempio, un'entità espressione regolare con una singola voce ([a-zA-Z0-9]\s?){5,9} non attiverà il riconoscitore di sequenze vocali perché contiene un gruppo Capture. Per risolvere il problema, aggiungi un'altra voce per [a-zA-Z0-9]{5,9}. Ora potrai usufruire del riconoscitore di sequenze quando abbini "ABC123", ma la NLU continuerà ad abbinare input come "ABC 123" grazie alla regola originale che consente gli spazi.

I seguenti esempi di espressioni regolari si adattano alle sequenze alfanumeriche:

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

I seguenti esempi di espressioni regolari si adattano alle sequenze di cifre:

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}
Soluzione alternativa per le espressioni regolari

Il supporto integrato dell'adattamento vocale automatico per le entità regexp varia in base alla lingua. Consulta i token di classe per la sintesi vocale per le lingue supportate da $OOV_CLASS_ALPHANUMERIC_SEQUENCE e $OOV_CLASS_DIGIT_SEQUENCE.

Se la tua lingua non è presente nell'elenco, puoi aggirare questa limitazione. Ad esempio, se vuoi che un ID dipendente composto da tre lettere seguite da tre cifre venga riconosciuto con precisione, puoi creare l'agente con le seguenti entità e parametri:

  • Definisci un'entità digit che contenga 10 voci di entità (con sinonimi):
    0, 0
    1, 1
    ...
    9, 9
  • Definisci un'entità letter che contenga 26 voci di entità (con sinonimi):
    A, A
    B, B
    ...
    Z, Z
  • Definisci un'entità employee-id che contenga una singola voce di entità (senza sinonimi):
    @letter @letter @letter @digit @digit @digit
  • Utilizza @employee-id come parametro in una frase di addestramento.

Adattamento vocale manuale

L'adattamento manuale del parlato ti consente di configurare manualmente le frasi di adattamento del parlato per un flusso o una pagina. Inoltre, esegue l'override dei contesti vocali impliciti generati dall'adattamento automatico della voce quando quest'ultimo è abilitato.

Le impostazioni di adattamento del parlato a livello di flusso e di pagina hanno una relazione gerarchica, il che significa che una pagina eredita le impostazioni di adattamento del parlato dal livello di flusso per impostazione predefinita e il livello di pagina più granulare sostituisce sempre il livello di flusso se la pagina ha un'impostazione personalizzata.

Per l'impostazione di adattamento vocale, l'impostazione a livello di flusso e l'impostazione a livello di pagina possono essere attivate in modo indipendente. Se l'impostazione di adattamento a livello di flusso non è attivata, puoi comunque scegliere Personalizza a livello di pagina per attivare l'adattamento manuale della sintesi vocale per quella pagina specifica. Allo stesso modo, se disattivi l'adattamento manuale della voce nell'impostazione a livello di flusso, le pagine del flusso con Personalizza selezionato non verranno interessate.

Tuttavia, l'impostazione a livello di flusso e l'impostazione a livello di pagina non possono essere disattivate in modo indipendente. Se un flusso ha l'adattamento manuale della sintesi vocale attivato, non puoi disattivarlo per una pagina del flusso tramite l'opzione Personalizza. Pertanto, se vuoi avere un utilizzo misto dell'adattamento vocale manuale e automatico per le pagine all'interno di un flusso, non devi attivare l'adattamento vocale manuale a livello di flusso e devi utilizzare solo le impostazioni di adattamento a livello di pagina. Puoi fare riferimento alla tabella di seguito per capire quale combinazione di impostazioni di flusso e pagina devi utilizzare per il tuo caso di adattamento.

Effetto target Utilizzo consigliato delle impostazioni di adattamento
Disattivare l'adattamento automatico per un flusso Flusso attivato senza frasi (le pagine all'interno del flusso utilizzano per impostazione predefinita l'impostazione del flusso).
Disattivare l'adattamento automatico per una pagina Flusso disattivato e pagina attivata (Personalizza scelto) senza set di frasi.
Utilizza l'adattamento vocale manuale solo per tutte le pagine all'interno di un flusso Flusso attivato. Personalizza le pagine che devono utilizzare set di frasi diversi dal flusso.
Combinare l'utilizzo dell'adattamento automatico e manuale all'interno di un flusso Flusso disattivato. Personalizza le pagine a cui vuoi applicare l'adattamento manuale.
Utilizza l'adattamento vocale automatico solo per tutte le pagine all'interno di un flusso Flusso disattivato.

Attivare o disattivare l'adattamento manuale della voce

Per attivare o disattivare l'adattamento manuale della sintesi vocale a livello di flusso o pagina:

Impostazioni del flusso

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Passa il mouse sopra il flusso nella sezione Flussi.
  4. Fai clic sul pulsante delle opzioni .
  5. Seleziona Impostazioni flusso nel menu a discesa.
  6. Seleziona o deseleziona la casella di controllo Attiva l'adattamento manuale del parlato.
  7. Modificare, aggiungere o eliminare set di frasi nella tabella dei set di frasi
  8. Fai clic su Salva.

Impostazioni della pagina

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Passa il mouse sopra la pagina nella sezione Pagine.
  4. Fai clic sul pulsante delle opzioni .
  5. Seleziona Impostazioni pagina nel menu a discesa.
  6. L'opzione Utilizza livello di flusso è selezionata per impostazione predefinita e, se selezionata, le frasi di adattamento a livello di flusso verranno riutilizzate per questa pagina. Puoi scegliere Personalizza per configurare frasi di adattamento diverse dalle impostazioni a livello di flusso. Anche se l'adattamento manuale della voce è disattivato a livello di flusso, puoi comunque attivarlo e configurarlo per una pagina del flusso tramite l'opzione Personalizza.
  7. Modificare, aggiungere o eliminare un insieme di frasi nella tabella dell'insieme di frasi di adattamento
  8. Fai clic su Salva.

Configurazione manuale del set di frasi per migliorare il riconoscimento vocale

1. Parole e frasi

In un insieme di frasi di adattamento, puoi definire frasi di una o più parole con riferimenti facoltativi ai token di classe vocale. Ad esempio, puoi aggiungere frasi come "ottima tariffa", "il numero di tracciamento è $OOV_CLASS_ALPHANUMERIC_SEQUENCE" o "$FULLPHONENUM". Queste frasi fornite aumentano la probabilità che vengano trascritte rispetto ad altre frasi simili dal punto di vista fonetico. Quando aggiungi una frase composta da più parole senza alcun incremento, la distorsione viene applicata sia all'intera frase sia alle parti continue all'interno della frase. In generale, il numero di frasi deve essere ridotto e devi aggiungere solo frasi che il riconoscimento vocale non riesce a comprendere correttamente senza l'adattamento vocale. Se la funzionalità Text-Speech-to-Text riconosce già correttamente una frase, non è necessario aggiungerla alle impostazioni di adattamento vocale. Se in una pagina o in un flusso vedi alcune frasi che la funzionalità di Speech-to-Text riconosce spesso in modo errato, puoi aggiungere le frasi corrette alle impostazioni di adattamento corrispondenti.

Esempio di correzione di un errore di riconoscimento

Ecco un esempio di come puoi utilizzare l'adattamento vocale per correggere i problemi di riconoscimento. Supponiamo che tu stia progettando un agente di trading di dispositivi mobili e l'utente potrebbe dire qualcosa che include le frasi "vendi telefoni" o "cellulare" dopo che l'agente ha posto la prima domanda "Di cosa hai bisogno?". Come possiamo utilizzare l'adattamento vocale per migliorare l'accuratezza del riconoscimento di entrambe le frasi?

Se includi entrambe le frasi nelle impostazioni di adattamento, Speech-to-Texte potrebbe comunque confondersi, in quanto hanno un suono simile. Se fornisci solo una delle due frasi, Speech-to-Text potrebbe riconoscere erroneamente una frase come l'altra. Per migliorare la precisione del riconoscimento vocale per entrambe le frasi, devi fornire a Speech-to-Text più indizi di contesto per distinguere quando deve ascoltare "sell phones" e quando deve ascoltare "cell phone". Ad esempio, potresti notare che le persone usano spesso "vendere telefoni" in espressioni come "come vendere telefoni", "voglio vendere telefoni" o "vendete telefoni", mentre "cellulare" in espressioni come "acquistare cellulare", "bolletta del cellulare" e "servizio di telefonia mobile". Se fornisci al modello queste frasi più precise anziché le brevi frasi originali "cellulare" e "vendere telefoni", Speech-to-Text imparerà che la frase verbale "vendere telefono" è più probabile che segua parole come "come fare a", "voglio" e "puoi", mentre la frase nominale "cellulare" è più probabile che segua parole come "acquisto" o che sia seguita da parole come "bolletta" o "servizio". Pertanto, come regola generale per la configurazione delle frasi di adattamento, è in genere meglio fornire frasi più precise come "come vendere smartphone" o "vendete smartphone" piuttosto che includere solo "vendere smartphone".

2. Token di classe vocale

Oltre alle parole in linguaggio naturale, puoi anche incorporare riferimenti a token di classe di discorso in una frase. I token di classe vocale rappresentano concetti comuni che di solito seguono un determinato formato nella scrittura. Ad esempio, per il numero civico in un indirizzo come "123 Main Street", le persone si aspettano di vedere il formato numerico "123" in un indirizzo anziché la versione scritta per esteso "centoventitre". Se prevedi una determinata formattazione nei risultati della trascrizione, in particolare per le sequenze alfanumeriche, consulta l'elenco dei token di classe supportati per vedere quali sono disponibili per la tua lingua e il tuo caso d'uso.

Se la pagina ha già route o parametri di intent con riferimenti alle entità di sistema, ecco una tabella di riferimento per i mapping tra le entità di sistema comuni e i token di classe di speech:

Entità di sistema Token di classe vocale
@sys.date $MONTH $DAY $YEAR
@sys.date-time $MONTH $DAY $YEAR
@sys.date-period $MONTH $DAY $YEAR
@sys.time $TIME
@sys.time-period $TIME
@sys.age $OPERAND
@sys.number $OPERAND
@sys.number-integer $OPERAND
@sys.cardinal $OPERAND
@sys.ordinal $OPERAND
@sys.percentage $OPERAND
@sys.duration $OPERAND
@sys.currency-name $MONEY
@sys.unit-currency $MONEY
@sys.phone-number $FULLPHONENUM
@sys.zip-code $POSTALCODE o $OOV_CLASS_POSTALCODE
@sys.address $ADDRESSNUM $STREET $POSTALCODE
@sys.street-address $ADDRESSNUM $STREET $POSTALCODE
@sys.temperature $OOV_CLASS_TEMPERATURE
@sys.number-sequence $OOV_CLASS_DIGIT_SEQUENCE
@sys.flight-number $OOV_CLASS_ALPHANUMERIC_SEQUENCE

3. Valore boost

Se l'aggiunta di frasi senza il valore di boost non fornisce un effetto di distorsione sufficientemente forte, puoi utilizzare il valore di boost per rafforzare ulteriormente l'effetto di distorsione dell'adattamento del parlato.

Il boost applica un bias aggiuntivo quando è impostato su valori superiori a 0 e non superiori a 20. Quando il boost è vuoto o pari a 0, l'effetto di distorsione predefinito aiuta a riconoscere l'intera frase e le parti continue all'interno della frase. Ad esempio, una frase non potenziata "sei aperto a vendere telefoni" aiuta a riconoscere questa frase e anche frasi simili come "vendo telefoni" e "Ciao sei aperto".

Quando viene applicato l'incremento positivo, l'effetto di distorsione è più forte, ma si applica solo alla frase esatta. Ad esempio, una frase potenziata "vendi telefoni" aiuta a riconoscere "puoi vendere telefoni", ma non "vendi telefoni?".

Per questi motivi, otterrai i risultati migliori se fornisci frasi sia con che senza boost.

Valori di boost più elevati possono comportare un minor numero di falsi negativi, ovvero casi in cui la parola o la frase era presente nell'audio, ma non è stata riconosciuta correttamente da Speech-to-Text (sottostima). Tuttavia, il potenziamento può anche aumentare la probabilità di falsi positivi, ovvero casi in cui la parola o la frase appare nella trascrizione anche se non è presente nell'audio (sovraponderazione). Di solito è necessario perfezionare le frasi di distorsione per trovare un buon punto di compromesso tra i due problemi di distorsione.

Puoi scoprire di più su come ottimizzare il valore di boost per le frasi nel documento di Cloud Speech sul boost.

Quando utilizzare l'adattamento vocale automatico o manuale

In generale, se non hai la certezza che l'adattamento vocale migliorerà la qualità del riconoscimento vocale per il tuo agente (non hai in mente schemi chiari di errori di trascrizione), ti consigliamo di provare prima l'adattamento vocale automatico prima di ricorrere all'adattamento vocale manuale. Per decisioni più sfumate, valuta i seguenti fattori per decidere tra l'adattamento automatico del parlato o l'adattamento manuale del parlato:

1. Compilazione dei moduli

L'adattamento automatico del parlato funziona molto bene con la compilazione dei moduli in quanto utilizza il contesto della grammatica ABNF per i parametri del modulo e applica le regole grammaticali in base ai tipi di entità. Poiché l'adattamento vocale manuale non supporta ancora le grammatiche ABNF, l'adattamento vocale automatico è generalmente preferito all'adattamento vocale manuale per una pagina di compilazione del modulo. Tuttavia, per le pagine con solo parametri di entità di sistema ed entità regexp semplici supportate dai token di classe vocale, puoi anche utilizzare l'adattamento vocale manuale per ottenere un effetto di distorsione simile all'adattamento vocale automatico senza la necessità di ottimizzare le entità regexp.

2. Complessità della transizione di pagina o flusso

Per una pagina o un flusso semplice con poche route di intent, l'adattamento automatico del parlato genererà probabilmente frasi di distorsione rappresentative e funzionerà in modo ragionevole.

Tuttavia, se una pagina o un flusso ha un numero elevato di route di intent (per una pagina, considera anche il numero di route a livello di flusso) o se uno degli intent ha frasi di addestramento non importanti troppo lunghe o troppo brevi (ad esempio, un'intera frase o una singola parola con solo una o due sillabe), è molto probabile che il modello di adattamento vocale non funzioni bene con queste frasi. Innanzitutto, prova a disattivare l'adattamento vocale per le pagine aperte con elevata complessità attivando l'adattamento vocale manuale con set di frasi vuoti (override dell'adattamento vuoto). Dopodiché, valuta se ci sono frasi speciali non ambigue che devono ancora essere fornite a Speech-to-Text per migliorare la qualità del riconoscimento.

Un altro sintomo di questo problema di complessità è la visualizzazione di un'ampia gamma di problemi di sottostima o sovrastima quando è attivata l'adattamento automatico del parlato. Come nel caso precedente, devi anche eseguire il test con l'adattamento vocale disattivato per la pagina specifica. Se i comportamenti errati persistono dopo la disattivazione dell'adattamento vocale, puoi aggiungere le frasi che vuoi correggere nelle impostazioni di adattamento vocale e persino aggiungere valori di boost per rafforzare ulteriormente gli effetti di distorsione, se necessario.

Test dell'adattamento vocale

Quando testi le funzionalità di adattamento vocale dell'agente per una determinata frase di addestramento o corrispondenza di entità, non devi passare direttamente al test della corrispondenza con la prima espressione vocale di una conversazione. Devi utilizzare solo input vocali o di eventi per l'intera conversazione prima della corrispondenza che vuoi testare. Il comportamento dell'agente testato in questo modo sarà simile a quello delle conversazioni di produzione effettive.

Limitazioni

Si applicano le seguenti limitazioni:

  • L'adattamento del parlato non è disponibile per tutte le combinazioni di modelli vocali e lingue. Consulta la pagina delle lingue supportate da Cloud Speech per verificare se l'adattamento del modello è disponibile per la combinazione di modello vocale e lingua.
  • Al momento, l'adattamento manuale del parlato non supporta classi personalizzate o grammatica ABNF. Puoi attivare l'adattamento automatico del parlato o utilizzare la richiesta di rilevamento dell'intent in fase di runtime per utilizzare queste funzionalità di adattamento.

  • Lo stesso valore di boost potrebbe funzionare in modo diverso per modelli vocali e lingue diverse, quindi presta attenzione quando li configuri manualmente per gli agenti che utilizzano più lingue o modelli vocali. Al momento, l'adattamento manuale del discorso si applica a tutte le lingue di un agente, pertanto gli agenti multilingue devono utilizzare solo frasi indipendenti dalla lingua o dividere ogni lingua in un agente separato. Poiché il comportamento di distorsione predefinito (nessun boost o boost pari a 0) di solito funziona abbastanza bene per tutte le lingue e tutti i modelli, non è necessario configurare valori di boost specifici per la lingua, a meno che non sia necessaria una distorsione più forte per il tuo caso d'uso del riconoscimento. Puoi scoprire di più su come ottimizzare il valore di boost in questa guida di Cloud Speech-to-Text.

  • Il riconoscimento di sequenze di caratteri lunghe è difficile. Il numero di caratteri acquisiti in un singolo turno è direttamente correlato alla qualità dell'audio di input. Se hai seguito tutte le linee guida per le entità regexp e hai provato a utilizzare i token di classe di discorso pertinenti nelle impostazioni di adattamento del discorso manuale e hai ancora difficoltà ad acquisire l'intera sequenza in un singolo turno, puoi prendere in considerazione alcune alternative più conversazionali:
    • Quando convalidi la sequenza rispetto a un database, prendi in considerazione il controllo incrociato di altri parametri raccolti, come date, nomi o numeri di telefono, per consentire corrispondenze incomplete. Ad esempio, anziché chiedere solo il numero dell'ordine, chiedi anche il numero di telefono. Ora, quando il webhook esegue query nel database per lo stato dell'ordine, può fare affidamento prima sul numero di telefono, quindi restituire l'ordine corrispondente più vicino per quell'account. In questo modo, Dialogflow potrebbe interpretare erroneamente "ABC" come "AVC", ma restituire comunque lo stato dell'ordine corretto per l'utente.
    • Per sequenze molto lunghe, valuta la possibilità di progettare un flusso che incoraggi gli utenti finali a fare una pausa a metà in modo che il bot possa confermare man mano.