Best practice per l'utilizzo del servizio

Questa guida fornisce le best practice per l'utilizzo del servizio Dialogflow. Queste linee guida sono progettate per una maggiore efficienza e accuratezza, nonché per tempi di risposta ottimali da parte del servizio.

Consulta anche la guida generale alla progettazione degli agenti per tutti i tipi di agenti, e la guida alla progettazione degli agenti vocali specificamente per la progettazione di agenti vocali.

Produzione

Prima di eseguire l'agente in produzione, assicurati di implementare le seguenti best practice:

Versioni dell'agente

Devi sempre utilizzare le versioni dell'agente per il traffico di produzione. Per maggiori dettagli, consulta Versioni e ambienti.

Crea un backup dell'agente

Conserva un backup dell'agente esportato aggiornato. In questo modo, potrai eseguire rapidamente il ripristino se tu o i membri del tuo team eliminate accidentalmente l'agente o il progetto.

Riutilizzo del client

Puoi migliorare il rendimento della tua applicazione riutilizzando le istanze della libreria client *Client per la durata del ciclo di vita di esecuzione dell'applicazione.

Ancora più importante, puoi migliorare il rendimento delle chiamate API detect intent riutilizzando un'istanza della libreria client SessionsClient.

Seleziona un protocollo e una versione per il riferimento della sessione:

Protocollo V3 V3beta1
REST Risorsa sessione Risorsa sessione
RPC Interfaccia sessione Interfaccia sessione
C++ SessionsClient Non disponibile
C# SessionsClient Non disponibile
Vai SessionsClient Non disponibile
Java SessionsClient SessionsClient
Node.js SessionsClient SessionsClient
PHP Non disponibile Non disponibile
Python SessionsClient SessionsClient
Ruby Non disponibile Non disponibile

Per saperne di più, consulta la guida Best practice con le librerie client.

Tentativi per gli errori API

Quando chiami i metodi API, potresti ricevere risposte di errore. Alcuni errori devono essere ritentati, perché spesso sono dovuti a problemi temporanei. Ci sono due tipi di errori:

Inoltre, devi implementare un backoff esponenziale per i tentativi. In questo modo, il sistema può trovare una frequenza accettabile mentre il servizio API è sottoposto a un carico elevato.

Errori dell'API Cloud

Se utilizzi una libreria client fornita da Google, i tentativi per gli errori dell'API Cloud con backoff esponenziale vengono implementati automaticamente.

Se hai implementato la tua libreria client utilizzando REST o gRPC, devi implementare i tentativi per il client. Per informazioni sugli errori che devi o non devi ritentare, consulta Proposte di miglioramento dell'API: configurazione dei tentativi automatici.

Errori webhook

Se la chiamata API attiva una chiamata webhook, il webhook potrebbe restituire un errore. Anche se utilizzi una libreria client fornita da Google, i tentativi per gli errori webhook non vengono eseguiti automaticamente. Il codice deve ritentare gli errori 503 Service Unavailable ricevuti dal webhook. Per informazioni sui tipi di errori webhook e su come verificarli, consulta la documentazione del servizio webhook.

Test di carico

È una best practice eseguire il test di carico del sistema prima di rilasciare il codice in produzione. Tieni presente questi punti prima di implementare i test di carico:

Riepilogo Dettagli
Aumenta il carico. Il test di carico deve aumentare il carico applicato al servizio Dialogflow. Il servizio non è progettato per gestire picchi di carico improvvisi, che si verificano raramente con il traffico reale. Il servizio impiega del tempo per adattarsi alle richieste di carico, quindi aumenta lentamente il tasso di richieste finché il test non raggiunge il carico desiderato.
Le chiamate API sono a pagamento. Ti verranno addebitati i costi per le chiamate API durante un test e le chiamate saranno limitate dalla quota del progetto.
Utilizza i test double. Potresti non dover chiamare l'API durante il test di carico. Se lo scopo del test di carico è determinare in che modo il sistema gestisce il carico, spesso è meglio utilizzare un test double al posto delle chiamate effettive all'API. Il test double può simulare il comportamento dell'API sotto carico.
Utilizza i tentativi. Il test di carico deve eseguire i tentativi con un backoff.

Chiamare Dialogflow in modo sicuro da un dispositivo dell'utente finale

Non devi mai archiviare le chiavi private utilizzate per accedere all'API Dialogflow su un dispositivo dell'utente finale. Questo vale sia per l'archiviazione delle chiavi direttamente sul dispositivo sia per la codifica hardcoded delle chiavi nelle applicazioni. Quando l'applicazione client deve chiamare l'API Dialogflow, deve inviare le richieste a un servizio proxy di proprietà dello sviluppatore su una piattaforma sicura. Il servizio proxy può effettuare le chiamate Dialogflow effettive e autenticate.

Ad esempio, non devi creare un'applicazione mobile che chiama direttamente Dialogflow. In questo modo, dovresti archiviare le chiavi private su un dispositivo dell'utente finale. L'applicazione mobile deve invece passare le richieste tramite un servizio proxy sicuro.

Prestazioni

Questa sezione descrive le informazioni sul rendimento per varie operazioni in Dialogflow. La comprensione della latenza è importante per progettare agenti reattivi e impostare aspettative di rendimento realistiche, anche se questi valori non fanno parte dell'SLA di Dialogflow.

Quando crei strumenti di monitoraggio e avviso, tieni presente che i modelli linguistici di grandi dimensioni (LLM) e l'elaborazione vocale vengono in genere gestiti utilizzando metodi di streaming. Le risposte vengono inviate al client il prima possibile, spesso molto prima di la durata totale della chiamata al metodo. Per saperne di più, consulta le Best practice con i modelli linguistici di grandi dimensioni (LLM).

Rendimento per operazione

La tabella seguente fornisce informazioni sul rendimento tipico delle operazioni di Dialogflow:

Azione Note
Azioni flusso: gestori di stato Operazione più veloce
Flussi: rilevamento di intent (testo) Operazione più veloce
Flussi: rilevamento dei parametri (testo) Operazione veloce
Riconoscimento vocale (streaming) I dati vengono elaborati e le risposte vengono restituite il prima possibile. Il tempo totale di esecuzione è determinato principalmente dalla durata dell'audio di input. Non è consigliabile misurare la latenza utilizzando il tempo totale di esecuzione.
Sintesi vocale (streaming) Il tempo totale di esecuzione è determinato principalmente dalla durata dell'audio di output. I dati vengono elaborati e le risposte vengono restituite il più rapidamente possibile.
Datastore: AI generativa disattivata Il tempo effettivo dipende dalle dimensioni del datastore.
Datastore: AI generativa attivata Il rendimento dipende dalle dimensioni del datastore, dal modello linguistico in uso e dalla lunghezza dell'output e dell'input del prompt, in questo ordine.
Fallback generativo Il rendimento dipende dalla lingua in uso e dalla lunghezza dell'output e dell'input del prompt, in questo ordine.
Generatori Il rendimento dipende dal modello linguistico in uso, dalla complessità dell'input e della lunghezza dell'output del prompt e dal numero di generatori nel turno. Più generatori in un singolo turno comportano più chiamate a un modello linguistico.
Esecuzione dei playbook Il rendimento dipende dalla complessità del playbook, dal numero di prompt e dal tempo di esecuzione di tutti gli strumenti chiamati. La lunghezza dell'output e dell'input del prompt influisce su questo rendimento. È possibile eseguire più prompt del modello linguistico in serie, aggiungendo il tempo totale di chiamata.
Playbook: strumenti Il rendimento dipende dall'esecuzione sottostante dello strumento.
Chiamate webhook Il rendimento è determinato direttamente dal tempo di esecuzione del codice nel webhook.
Importa / Esporta agente Il rendimento dipende dalle dimensioni dell'agente.
Addestramento dell'agente Il rendimento dipende dal numero di flussi, intent e frasi di addestramento. L'addestramento di agenti di grandi dimensioni può richiedere decine di minuti.
Creazione dell'ambiente La creazione di un ambiente comporta l'addestramento dell'agente, quindi il tempo totale dipenderà dalle dimensioni e dalla complessità dell'agente.

Note chiave:

  • Streaming: per le chiamate di streaming (riconoscimento vocale e sintesi), i dati vengono elaborati man mano che arrivano e le risposte vengono restituite il prima possibile. Ciò significa che la risposta iniziale è in genere molto più veloce del tempo totale della chiamata.
  • Playbook: un prompt LLM viene creato in base alle istruzioni del playbook, al contesto della conversazione e all'input dello strumento. È possibile eseguire più prompt LLM in una singola chiamata playbook. Per questo motivo, l'esecuzione del playbook è variabile, a seconda della quantità di prompt emessi e della complessità delle chiamate.

Considerazioni importanti sulla latenza

  • Nessuna garanzia di latenza: gli SLA di Dialogflow non tengono conto della latenza, nemmeno con il Throughput riservato.
  • Latenza LLM: tieni presente che l'elaborazione LLM può introdurre una latenza significativa. Tieni conto di questo aspetto nella progettazione dell'agente e nelle aspettative degli utenti.
  • Monitoraggio e avvisi: quando configuri il monitoraggio e gli avvisi, tieni conto della natura in streaming delle risposte dei servizi vocali e LLM. Non dare per scontato che il tempo di risposta completo sia uguale al tempo per la prima risposta.