Principes de base de Quality AI

Quality AI utilise un modèle d'IA pour analyser automatiquement les conversations de service client, ou les interactions entre les agents du centre d'appels et les utilisateurs. Le modèle d'IA analyse les transcriptions de chat ou vocales.

Lorsque vous modifiez un tableau de données, vous pouvez effectuer les opérations suivantes sur les balises personnalisées.

  • Ajoutez des tags aux questions existantes.
  • Supprimez les tags des questions existantes.

Détails de la conversation

Les conversations contiennent les informations suivantes. Ces informations incluent des identifiants et des métriques pour l'analyse.

  • ID d'agent : numéro unique attribué à chaque agent, qui identifie les conversations qu'il a traitées.
  • Score total de l'agent : score moyen des performances d'un agent pour l'ensemble de ses conversations.
  • AHT : temps de traitement moyen, soit la durée moyenne des conversations d'un agent au cours d'une période donnée.
  • Score moyen des agents : moyenne des scores totaux de tous vos agents. (voir Score total de l'agent).
  • Score de qualité moyen de l'agent : moyenne des scores de qualité générés par les conversations d'un même agent sur une période donnée. (voir Niveau de qualité).
  • Score moyen des conversations : score moyen de toutes les conversations.
  • Niveau de qualité moyen : moyenne du niveau de qualité sur une période donnée. (voir Niveau de qualité).
  • Canal : moyen de communication entre un client et un agent. Le canal a l'une des deux valeurs suivantes : "voice" (voix) ou "chat" (chat).
  • ID de conversation : numéro unique attribué pour identifier chaque conversation avec le service client.
  • Score total de la conversation : somme des scores des questions dans une même conversation.
  • CSAT : note de satisfaction client, généralement comprise entre 1 et 5.
  • Durée : durée de la conversation, du début à la fin.
  • Thème principal : préoccupation abordée lors d'une conversation, déterminée par la modélisation thématique. L'IA de qualité n'affiche un thème principal que si vous avez utilisé la modélisation thématique sur cette conversation.
  • Niveau de qualité : score global attribué à un tableau de données.
  • Question : utilisée pour évaluer les performances d'un agent dans une conversation. Vous saisissez vos questions dans l'IA qualité, puis l'agent est évalué en fonction de sa capacité à répondre aux critères de chaque question.
  • Sentiment : état émotionnel principal transmis par la conversation. Le sentiment peut avoir l'une des trois valeurs suivantes : positif, neutre ou négatif. L'IA de qualité n'affiche un sentiment que si vous avez utilisé l'analyse des sentiments sur la conversation.
  • Silence : période pendant laquelle ni le client ni l'agent n'ont parlé ni tapé de texte.
  • Date de début : date à laquelle la conversation a commencé.
  • Heure de début : heure à laquelle la conversation a commencé.
  • Volume total : nombre total de conversations traitées par un agent au cours d'une période donnée.

Tableaux de données

La fiche d'évaluation est un cadre structuré utilisé pour évaluer la qualité des conversations et les performances des agents du centre de contact lors des conversations. Chaque centre de contact dispose de ses propres tableaux de données.

Chaque tableau de données se compose des informations suivantes :

  • Question (exemple : l'agent a-t-il fait un compliment approprié sur le produit ?)
  • Facultatif : Ajoutez un tag pour regrouper les questions en catégories.
  • Instructions pour interpréter la question et définir chaque choix de réponse.
  • Type de réponse (texte, nombre ou oui/non)
  • Choix de réponses qui définissent les réponses possibles en fonction du type de réponse (par exemple, "oui" et "non", une liste de nombres ou des réponses textuelles).
  • Score à définir pour les points gagnés pour chaque choix de réponse. Le score maximal pour une question est déterminé par le score le plus élevé parmi toutes les options de réponse.

Vous pouvez créer plusieurs tableaux de données dans un même projet Google Cloud . Si chaque fiche d'évaluation contient des questions différentes, vous pouvez voir plusieurs scores de qualité pour les mêmes conversations. Chaque score est basé sur des critères différents.

Questions prédéfinies

Vous pouvez utiliser des questions prédéfinies dans votre tableau de données, avec des questions et des choix de réponse que vous ne pouvez pas modifier. Customer Experience Insights définit les instructions et les choix de réponses. Ces questions ont un ID indiquant leur version. Vous pouvez ajouter des questions prédéfinies à n'importe quelle fiche d'évaluation pour les utiliser dans l'analyse de l'IA qualité.

Les questions prédéfinies identifient les métriques de résultats de conversation suivantes :

  • Résultat de la conversation
  • Initiateur de l'escalade
  • Utilité de l'agent
  • Satisfaction des utilisateurs

Résultat de la conversation

Les résultats de la conversation identifient l'issue de la conversation dans le contexte de la tâche de l'utilisateur.

  • Abandonnée : l'utilisateur a cessé de répondre ou a quitté la conversation avant qu'aucune de ses tâches ne soit terminée et sans avoir été transféré à un agent humain.
  • Partiellement résolu : l'agent a compris l'intention de l'utilisateur et a effectué certaines de ses tâches, mais pas toutes. La conversation s'est terminée avant que toutes les tâches de l'utilisateur ne soient entièrement effectuées.
  • Escaladée : conversation transférée à un agent humain à la demande de l'utilisateur.
  • Redirigée : conversation transférée à un agent humain, à l'initiative de l'agent.
  • Résolu : l'agent a compris l'intention de l'utilisateur, a effectué les tâches demandées et a reçu une confirmation explicite de l'utilisateur à la fin de la conversation.

Initiateur de l'escalade

L'initiateur de l'escalade indique si une escalade vers un agent humain a eu lieu et qui a lancé ce processus.

  • Utilisateur : l'utilisateur a demandé à être mis en relation avec un agent humain.
  • Agent : l'agent a demandé une escalade à un agent humain.
  • Aucun transfert : la conversation n'a pas été escaladée à un agent humain. Cela inclut les cas où l'agent a redirigé l'utilisateur vers une autre ressource pour répondre à sa demande, mais n'a pas escaladé le problème à un agent humain.

Utilité de l'agent

L'utilité de l'agent permet de déterminer si la réponse de l'agent a été utile du point de vue de l'utilisateur. Cette métrique est basée sur l'intégralité de la conversation.

  • Utile : l'agent a fourni des informations utiles à l'utilisateur, a répondu à son intention (totalement ou partiellement) ou l'a redirigé vers une ressource appropriée pour résoudre sa demande.
  • Peu utile : l'agent n'a fourni aucune information utile à l'utilisateur et n'a pas répondu à son intention. Cela inclut les cas où l'agent a mal interprété la demande de l'utilisateur ou a fourni des informations incorrectes pour la tâche.

Satisfaction des utilisateurs

La satisfaction de l'utilisateur permet de déterminer si l'utilisateur a exprimé son insatisfaction ou refusé la solution finale, s'il s'est énervé ou s'il a eu un comportement abusif.

  • Insatisfait : l'utilisateur a exprimé son insatisfaction concernant la réponse de l'agent, a explicitement refusé la solution en l'indiquant ou s'est énervé.
  • Pas clair ou Satisfait : l'utilisateur n'a exprimé aucun mécontentement ni aucune colère concernant la réponse principale de l'agent et ne l'a pas refusée.

Tags personnalisés

Utilisez des tags pour regrouper les questions dans des catégories sur une fiche d'évaluation donnée. Chaque projet inclut des tags BUSINESS, COMPLIANCE et CUSTOMER par défaut. En plus de ces trois balises, vous pouvez utiliser les insights sur l'expérience client pour créer vos propres balises personnalisées. Les tags personnalisés sont limités à 10 par projet Google Cloud . Si vous avez besoin de plus de 10 tags, contactez votre point de contact Customer Experience Insights.

Scores de conversation

L'IA de qualité évalue automatiquement les conversations par rapport aux fiches d'évaluation que vous fournissez. Pour chaque question, procédez comme suit :

  • Définissez le type de réponse.
  • Énumérez les réponses possibles.
  • Définissez le score pour chaque choix de réponse.

Un tableau de données

Le score d'une conversation correspond au score total reçu divisé par le score maximal possible pour cette conversation. Le score total reçu correspond à la somme de tous les points obtenus à partir des choix de réponses attribués pour chaque question. Le score maximal possible correspond à la somme des scores maximaux pour chaque question. Toute question à laquelle la réponse "N/A" a été attribuée est supprimée du calcul du score de la conversation. Le score de conversation est exprimé en pourcentage.

Plusieurs tableaux de données

Une conversation peut recevoir plusieurs scores. Chaque score de conversation reflète les performances de l'agent au cours de cette conversation, selon les questions d'une seule fiche d'évaluation. Lorsque chaque fiche d'évaluation contient un groupe de questions différent, vous pouvez évaluer une seule conversation par rapport à plusieurs types de questions.

Mises à jour manuelles

Après avoir analysé une conversation, vous pouvez modifier manuellement la réponse à n'importe quelle question. Lorsque vous modifiez manuellement une réponse, l'IA de qualité ajuste automatiquement le score de la question et le score de la conversation correspondante. De plus, la console Quality AI marque la question et la conversation avec une icône visuelle pour indiquer que la réponse a été modifiée manuellement. Enfin, Quality AI ajoute automatiquement toute réponse modifiée manuellement en tant qu'exemple de conversation pour améliorer le modèle d'IA.

Menu "Source"

Dans la console Insights sur l'expérience client, chaque page de la section "Qualité de l'IA" inclut un menu Source. Ce menu liste vos tableaux de données afin que vous puissiez choisir les informations à afficher.

Par exemple, sur la page Conversations, vous pouvez afficher les scores de chaque conversation. Ces scores dépendent du tableau de données par rapport auquel l'IA de qualité a évalué les conversations. Par conséquent, si vous sélectionnez une autre fiche de données dans le menu Source, les scores des mêmes conversations peuvent changer.

Exemples

Les exemples suivants illustrent le calcul du score de conversation.

Exemple 1

Si les conditions suivantes sont remplies :

  • Un tableau de données comporte 10 questions.
  • Chaque question est une question par oui ou non.
  • "Oui" reçoit un score de 1 et "Non" reçoit un score de 0.
  • Une conversation a reçu toutes les réponses "Oui"

Le score de la conversation est alors de 100 %.

Exemple 2

Si les conditions suivantes sont remplies :

  • Un tableau de données comporte 10 questions.
  • Chaque question est une question par oui ou non.
  • "Oui" reçoit un score de 1 et "Non" reçoit un score de 0.
  • Une conversation reçoit sept réponses "Oui", deux réponses "Non" et une réponse "N/A".

La question "N/A" est ensuite supprimée, ce qui porte le nombre total de points possibles à 9. La conversation a obtenu 7 points sur 9. Le score de la conversation est arrondi et affiché sous la forme "78 %".

Étape suivante