Scenari di test

Puoi utilizzare la funzionalità di test integrata per scoprire bug e prevenire le regressioni. Per testare l'agente, puoi utilizzare il simulatore per interagire con l'agente e salvare la conversazione come caso di test.

Quando salvi uno scenario di test, le corrispondenze di intent, le azioni del playbook, i flussi attivati e le pagine attivate che si sono verificati durante la conversazione vengono salvati come aspettative dello scenario di test. Quando esegui lo scenario di test in un secondo momento dopo aver apportato aggiornamenti all'agente, queste aspettative vengono verificate. Puoi anche modificare queste aspettative quando crei o modifichi scenari di test.

Creare uno scenario di test

Per creare uno scenario di test utilizzando il simulatore:

  1. Apri il simulatore.
  2. Avere una conversazione con l'agente.
  3. Fai clic sul pulsante Crea scenario di test sopra il simulatore.
  4. Viene visualizzato il riquadro dell'editor di scenari di test. Fornisci il nome visualizzato dello scenario di test e modifica le aspettative come preferisci.
  5. Fai clic sul pulsante Salva scenario di test sopra il simulatore.

Esegui scenari di test

Per eseguire un singolo scenario di test:

  1. Fai clic su Scenari di test nel riquadro di navigazione a sinistra.
  2. Seleziona lo scenario di test che vuoi eseguire.
  3. Fai clic sul pulsante Esegui.
  4. Vengono visualizzati i risultati della cronologia degli scenari di test.

Per eseguire più scenari di test:

  1. Fai clic su Scenari di test nel riquadro di navigazione a sinistra.
  2. Seleziona gli scenari di test che vuoi eseguire utilizzando le caselle di controllo a sinistra.
  3. Fai clic su Esegui selezione.
  4. Per ogni scenario di test vengono mostrati i risultati dell'ultima esecuzione del test.

Modificare uno scenario di test

Quando modifichi uno scenario di test, non puoi modificare il messaggio per l'utente finale o la risposta dell'agente, ma puoi modificare quanto segue:

  • Aggiungere le aspettative
  • Eliminare le aspettative
  • Aggiornare le aspettative

Per modificare uno scenario di test:

  1. Fai clic su Scenari di test nel riquadro di navigazione a sinistra.
  2. Seleziona lo scenario di test che vuoi modificare.
  3. Fai clic sul pulsante Modifica sopra il riepilogo dello scenario di test.
  4. Puoi espandere la sezione Aspettative a livello di conversazione per modificare le aspettative che si applicano all'intera conversazione.
  5. Ogni turno conversazionale mostra il messaggio dell'utente finale, la risposta dell'agente e le aspettative per il turno. Non puoi modificare i messaggi, ma puoi modificare le aspettative a livello di turno.

Elimina scenari di test

Per eliminare gli scenari di test:

  1. Fai clic su Scenari di test nel riquadro di navigazione a sinistra.
  2. Seleziona gli scenari di test da eliminare utilizzando le caselle di controllo a sinistra.
  3. Fai clic su Elimina scenari di test selezionati.

Aspettative

Quando fornisci le aspettative per uno scenario di test, puoi fornire aspettative a livello di conversazione o aspettative a livello di turno.

Le aspettative a livello di conversazione si applicano all'intera conversazione e puoi fornire i seguenti tipi di aspettative:

  • Utilizzo degli strumenti
  • Chiamata del flusso
  • Chiamata del playbook

Le aspettative a livello di turno si applicano solo a un turno di conversazione specifico e puoi fornire i seguenti tipi di aspettative:

  • Risposta dell'agente
  • Flusso di corrente
  • Intent corrente
  • Pagina corrente
  • Utilizzo degli strumenti
  • Chiamata del flusso
  • Chiamata del playbook

Scenari di test legacy

Puoi utilizzare la funzionalità di test integrata per scoprire bug e prevenire le regressioni. Per testare l'agente, crea scenari di test utilizzando il simulatore per definire scenari di test di riferimento, poi esegui gli scenari di test in base alle esigenze. Un'esecuzione del test verifica che le risposte dell'agente non siano cambiate per gli input dell'utente finale definiti nello scenario di test.

Le istruzioni riportate di seguito mostrano come utilizzare la console, ma puoi trovare la stessa funzionalità anche nell'API.

Impostazioni del simulatore

La prima volta che apri il simulatore, devi selezionare un ambiente agente o versioni del flusso e un flusso attivo. Nella maggior parte dei casi, devi utilizzare l'ambiente bozza e il flusso di avvio predefinito.

Puoi anche attivare o disattivare le chiamate webhook in qualsiasi momento con il pulsante di attivazione/disattivazione webhook . La disattivazione dei webhook è utile per definire gli scenari di test.

Input del simulatore

Quando interagisci con il simulatore, fornisci l&#39input utentee finale come testo, poi premi Invio o fai clic sul pulsante Invia . Oltre al testo normale, puoi scegliere tipi di input alternativi con il selettore di input :

  • Parametro: inserisci un valore del parametro. Puoi fornire nuovi parametri o valori preimpostati per i parametri esistenti.
  • Evento: richiama un evento.
  • DTMF: Invia l'input di segnalazione multifrequenza a due toni (Touch-Tone) per le interazioni telefoniche.

Creare uno scenario di test

Per creare una conversazione:

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto.
  3. Seleziona il tuo agente.
  4. Fai clic su Agente di test per aprire il simulatore.
  5. Chatta con l'agente per creare una conversazione che copra la funzionalità che vuoi testare. Per ogni turno, verifica i valori corretti per l'intent attivato, la risposta dell'agente, la pagina attiva e i parametri di sessione.

Screenshot del simulatore.

Per salvare una conversazione come scenario di test:

  1. Fai clic sul pulsante Salva .
  2. Inserisci un nome visualizzato per lo scenario di test. Ogni scenario di test deve avere un nome visualizzato univoco.
  3. (Facoltativo) Fornisci un nome del tag. I tag ti aiutano a organizzare i casi di test. Tutti i tag devono iniziare con "#".
  4. (Facoltativo) Fornisci una nota che descriva lo scopo dello scenario di test.
  5. (Facoltativo) Seleziona i parametri da monitorare nello scenario di test. Viene fornito un elenco di parametri suggeriti. Puoi anche inserire altri parametri da monitorare. Se selezioni i parametri di monitoraggio, l'asserzione dei parametri viene verificata durante l'esecuzione dello scenario di test. Per maggiori dettagli sull'asserzione dei parametri, consulta la sezione Esegui scenari di test.
  6. Fai clic su Salva per salvare lo scenario di test.

Esegui scenari di test

Per visualizzare tutti gli scenari di test per un agente, fai clic su Scenari di test nella scheda Gestisci. La tabella dei casi di test mostra il nome del test, i tag, l'ora e l'ambiente dell'ultimo test e il risultato dell'ultimo test.

Per eseguire gli scenari di test:

  1. Seleziona gli scenari di test che vuoi eseguire e fai clic su Esegui. In alternativa, puoi fare clic su Esegui tutti gli scenari di test.
  2. Seleziona l'ambiente in cui vuoi eseguire gli scenari di test.
  3. I test iniziano a essere eseguiti e puoi visualizzare lo stato nella coda di attività. Il risultato del test verrà aggiornato al termine.

Per visualizzare il risultato dettagliato del test, fai clic sullo scenario di test. Il test case di riferimento e le conversazioni dell'ultima esecuzione vengono mostrati uno accanto all'altro.

Screenshot del simulatore.

Puoi fare clic sul turno di conversazione di qualsiasi agente per visualizzare i dettagli. Il motore di test controlla i seguenti tipi di dati uno alla volta per valutare il risultato del test:

  • Agent dialogue:

    Per ogni turno conversazionale, il dialogo dell'agente viene confrontato dall'esecuzione di riferimento all'ultima esecuzione. Se c'è una differenza, viene visualizzato un avviso. Queste differenze non impediscono il superamento di un test, perché il dialogo dell'agente spesso varia per lo stesso stato dell'agente.

  • Intento corrispondente:

    L'intent corrispondente deve essere lo stesso per ogni turno affinché un test venga superato.

  • Pagina corrente:

    Per superare un test, la pagina attiva deve essere la stessa per ogni turno.

  • Parametri di sessione:

    Se hai aggiunto parametri di monitoraggio durante la creazione dello scenario di test, il motore di test controllerà i parametri di sessione corrispondenti e il test non verrà superato se sono presenti parametri mancanti/inattesi o sevalore parametrotri non corrispondono.

In alcune situazioni, uno scenario di test potrebbe avere un errore previsto a causa di un agente aggiornato. Se la conversazione nell'ultima esecuzione riflette le modifiche previste, puoi fare clic su Salva come golden per sovrascrivere lo scenario di test golden.

Modifica scenari di test

Per modificare uno scenario di test, selezionalo dalla tabella Scenari di test, quindi fai clic sull'icona di modifica accanto al nome dello scenario di test. Viene visualizzata la finestra di dialogo Aggiorna scenari di test.

Per modificare i metadati e le impostazioni dello scenario di test, fai clic sulla scheda Impostazioni.

  1. Puoi modificare i campi Nome scenario di test, Tag e Nota oppure aggiungere nuovi parametri di monitoraggio.

  2. Fai clic su Salva.

Per modificare l'input dell'utente per lo scenario di test, fai clic sulla scheda Input utente.

  1. Aggiungi, rimuovi o modifica gli input dell'utente in formato JSON.

  2. Fai clic su Conferma. Viene avviata un'esecuzione automatica del test e la conversazione aggiornata viene visualizzata al termine dell'esecuzione del test.

  3. Fai clic su Salva per sovrascrivere lo scenario di test di riferimento originale oppure su Salva come per creare un nuovo scenario di test con le modifiche.

Visualizza la copertura test

Per visualizzare un report sulla copertura dei test per tutti gli scenari di test, fai clic su Copertura.

La pagina Copertura include le seguenti schede:

  • La copertura delle transizioni è determinata per tutti i gestori di stati (esclusi i gruppi di route) con un target di transizione esercitato dallo scenario di test. Il flusso/la pagina di origine e il flusso/la pagina di destinazione della transizione sono elencati nella tabella.

  • La copertura degli intent è determinata per tutti gli intent che corrispondono allo scenario di test.

  • La copertura dei gruppi di itinerari viene determinata per tutti i gruppi di itinerari corrispondenti allo scenario di test.

Importare ed esportare scenari di test

Per esportare gli scenari di test:

  1. Seleziona gli scenari di test e fai clic su Esporta o su Esporta tutti gli scenari di test.
  2. Fai clic su Scarica nel file locale o fornisci un URI bucket Cloud Storage e fai clic su Esporta in Google Cloud Storage.

Quando importi scenari di test, Dialogflow CX crea sempre nuovi scenari di test per l'agente di destinazione e non sovrascrive gli scenari di test esistenti. Per importare gli scenari di test:

  1. Fai clic su Importa.
  2. Scegli un file locale o fornisci un URI bucket Cloud Storage.