Comment rendre les enquêtes de satisfaction des clients équitables pour les agents

    Enquêtes de satisfaction des clients + équité des agents - Scorebuddy
    16:20

    Les enquêtes de satisfaction client (CSAT) sont des outils incroyablement utiles pour mesurer les performances de votre équipe d'assistance. Mais lorsqu'elles sont mal conçues ou mal interprétées, elles peuvent ressembler davantage à un découragement pour l'agent qu'à un outil de performance permettant d'évoluer et de bénéficier d'un coaching ciblé.

    Soyons honnêtes : quelques questions de type "oui/non" ne permettent pas toujours de brosser un tableau complet d'une conversation et de sa place dans le parcours du client.

    Pour les responsables, il est essentiel de veiller à ce que ces enquêtes auprès des clients soient justes, précises et pertinentes afin de soutenir une équipe motivée et performante. Le taux de réponse moyen aux enquêtes de satisfaction des clients étant d'environ 33 %,les réponses que vous recevez ont une réelle importance.

    Cependant, la conception des enquêtes CSAT peut involontairement fausser les résultats, négliger le contexte et même déformer les compétences de l'agent. C'est d'autant plus vrai que de nombreuses réponses proviennent de personnes dont l'opinion se situe aux deux extrêmes du spectre, de l'horrible à l'extraordinaire.

    Pour obtenir la compréhension la plus précise possible des performances des agents, vous devez vous concentrer sur l'ensemble de l'expérience client (CX), et pas seulement sur l'interaction finale ou la résolution du problème. Les questions de l'enquête doivent être précises et claires, et viser à recueillir des informations sur le service fourni par l'agent, et non sur des résultats indépendants de sa volonté.

    Qu'est-ce qu'une enquête de satisfaction de la clientèle ?

    Comme son nom l'indique, une enquête de satisfaction client est conçue pour mesurer la satisfaction du répondant après une interaction avec un agent de l'équipe d'assistance. La meilleure pratique consiste à réaliser les enquêtes de satisfaction immédiatement après l'interaction, afin qu'elle soit encore présente à l'esprit.

    Après un appel téléphonique, il peut leur être demandé de rester en ligne pour répondre à quelques questions, ou une fois le chat en ligne terminé, une enquête contextuelle peut apparaître à l'écran. Il peut s'agir de questions ouvertes, binaires ou à choix multiples, en fonction de vos méthodes d'enquête.

    Généralement, un score CSAT est obtenu en posant des questions telles que :

    • Dans quelle mesure avez-vous été satisfait de votre expérience en matière d'assistance à la clientèle aujourd'hui ?
    • Dans quelle mesure l'agent vous a-t-il aidé à résoudre votre problème ?

    Ces questions d'enquête sur la satisfaction de la clientèle sont simples et claires, et encouragent une réponse directe telle que :

    • "Très déçu" à "Très satisfait"
    • "1-5" sur une échelle numérique ou de Likert
    • Pouce levé ou pouce baissé, "Oui/Non", ou autres questions et réponses binaires simples.

    Les réponses aux enquêtes de satisfaction du service clientèle constituent une méthode rapide et peu contraignante pour prendre le pouls de l'interaction. La personne interrogée peut faire part de ses impressions et l'entreprise obtient immédiatement un aperçu de la façon dont elle perçoit l'assistance qu'elle a reçue de la part d'un agent spécifique.

    Pour les agents, cette mesure peut valider leurs performances ou montrer ce qu'ils pourraient améliorer. L'évaluation peut servir de système d'alerte précoce avant que d'autres problèmes ne surviennent et, à l'inverse, mettre en lumière l'excellence et la constance de l'assistance fournie par l'agent.

    Contrairement au Net Promoter Score (NPS), qui mesure la fidélité à long terme à la marque et la probabilité que la personne interrogée recommande votre produit ou service, le CSAT est plus instantané. Il s'agit d'un instantané du sentiment des clients. En vous concentrant sur un moment précis, comme un appel téléphonique, un chat ou un fil de discussion, vous pouvez comprendre dans quelle mesure l'interaction a répondu aux attentes du client.

    Certaines questions de l'enquête de satisfaction peuvent tenter de recueillir davantage de commentaires de la part de la personne interrogée. Il s'agit généralement de questions qualitatives, ouvertes, telles que :

    • Y a-t-il quelque chose que nous aurions pu mieux faire ?
    • Quelle est la raison de votre note ?

    Le client dispose d'une zone de texte vide ou d'une zone déroulante avec des réponses pré-remplies pour répondre à ces questions de suivi.

    Au fil du temps, des tendances CSAT se dessinent et montrent ce qui fonctionne bien, ou signalent des zones problématiques dans le parcours du client et mettent en évidence les améliorations nécessaires. Ces tendances de l'opinion des clients peuvent ensuite servir de base à tout, de la formation des agents à la mise à jour des caractéristiques des produits.

    Quelle est la différence ? CSAT vs. CES vs. NPS

    Mesure

    Définition

    Exemple de question

    Quand utiliser

    Meilleur pour

    CSAT

    Mesure la satisfaction à court terme après une interaction ou une transaction spécifique.

    "Dans quelle mesure avez-vous été satisfait de votre expérience d'assistance aujourd'hui ?"

    Immédiatement après une interaction avec le support.

    Évalue la performance de l'agent et la qualité de l'assistance.

    CES

    Mesure la facilité ou la difficulté avec laquelle la personne interrogée a résolu son problème.

    "Dans quelle mesure votre problème a-t-il été facile à résoudre aujourd'hui ?"

    Après des interactions basées sur des processus ou la résolution de problèmes.

    Comprendre les points de friction dans le parcours du client.

    NPS

    Mesure la fidélité à long terme en demandant à un client s'il est susceptible de recommander votre entreprise.

    "Quelle est la probabilité que vous nous recommandiez à un ami ou à un collègue ?

    Périodiquement (trimestriellement, semestriellement, etc.)

    Mesure la perception de la marque et la fidélité à long terme.

     

    Pourquoi les enquêtes de satisfaction de la clientèle peuvent-elles être injustes pour les agents ?

    Les enquêtes CSAT présentent des avantages évidents, mais il est essentiel de maintenir l'équité et le contexte lors de l'analyse des réponses. Les enquêtes auprès des clients sont de haut niveau et les réponses sont souvent données à la hâte. Pensez que les réponses "Oui" et "Non" sont en noir et blanc, alors que les nuances de l'ensemble de l'interaction sont en réalité une vaste échelle de gris.

    Par conséquent, une note faible ne doit pas être considérée comme le dernier mot sur la performance d'un agent, en particulier si le problème est dû à un élément indépendant de sa volonté. Des notes injustes dans certaines situations peuvent entraîner une baisse du moral des agents et, naturellement, de leur motivation.

    6 facteurs indépendants de la volonté de l'agent qui faussent le CSAT

    #1. Canaux de support client

    Certains agents qui travaillent sur un canal particulier (appels téléphoniques, médias sociaux, chat en direct ou courrier électronique) peuvent être confrontés à des consommateurs frustrés un pourcentage plus élevé du temps. Les scores CSAT peuvent donc refléter la nature du canal plutôt que la qualité du support client.

    Pour illustrer cela, SmartInsights a constaté que le support par SMS et par appel téléphonique avait les niveaux les plus bas de satisfaction des clients, avec seulement 40-43% se sentant satisfaits après l'interaction.

    #2. L'intention du client

    Certaines interactions sont faciles à gagner. Répondre à une simple FAQ, aider à réinitialiser un mot de passe ou indiquer une date de livraison ne demande pas beaucoup de temps ou d'efforts, mais permet de satisfaire les clients en quelques minutes. En revanche, d'autres interactions peuvent conduire à des escalades, comme des politiques complexes ou des dysfonctionnements de produits, et risquent d'accroître l'insatisfaction.

    #3. Le timing

    Il est raisonnable de pousser un consommateur à évaluer son expérience de service et de lui envoyer un e-mail de suivi. Mais trois relances en peu de temps ? Cela risque de provoquer un léger agacement et d'entraîner un faible score CSAT, même si cet agacement n'a rien à voir avec la qualité de l'assistance. Les enquêtes envoyées trop rapidement (comme une invitation à laisser une évaluation au milieu d'une conversation, par exemple) ou trop tard peuvent fausser les scores CSAT.

    #4. Problèmes liés au produit

    Les agents ne sont pas des ingénieurs ou des fabricants de logiciels. Pourtant, les appelants confrontés à une panne de logiciel ou à un dysfonctionnement du produit peuvent rejeter leur frustration sur l'agent. Même si le client sait que l'agent ne peut pas faire grand-chose dans ce genre de situation, il a souvent besoin d'un canal pour évacuer sa frustration et s'en prend injustement à l'agent.

    #5. Gravité du problème

    Lorsqu'un client entame une conversation avec un agent, il s'attend à ce que son problème soit résolu rapidement. Et lorsque cela ne se passe pas comme il l'avait prévu ? Même si l'agent a fait preuve d'empathie et a fait tout ce qui était en son pouvoir, il est probable qu'il laissera un faible score CSAT.

    Les problèmes complexes ou insolubles, en particulier ceux qui impliquent plusieurs transferts, font injustement chuter les scores.

    #6. L'humeur du client

    Certaines personnes commencent la conversation frustrées et de mauvaise humeur, ce qui fausse les résultats avant même que l'interaction ne commence. L'agent le plus empathique et le mieux formé sera toujours susceptible de recevoir un faible CSAT après de telles interactions.

    Améliorez les scores de satisfaction des clients : Formez vos agents aux situations délicates.

    Démarrez votre démonstration de produit autoguidée

    3 exemples de l'impact des enquêtes CSAT faussées sur la performance des agents

    Si l'objectif de ces enquêtes sur l'expérience client est de comprendre comment améliorer la satisfaction des clients, il faut également tenir compte des agents. En fin de compte, un retour d'information client faussé peut induire les responsables en erreur sur les performances des agents et nuire au moral de l'équipe d'assistance. Voici quelques situations réelles à surveiller :

    • Un agent qui traite les litiges liés à la facturation peut obtenir une note systématiquement inférieure à celle d'un agent qui répond aux questions fréquemment posées (FAQ).
    • Un appelant attend le prochain agent disponible depuis 20 minutes et a déjà été transféré ; lorsqu'il atteint le dernier agent, il est irrité et impatient, quelle que soit l'aide apportée par l'agent.
    • Une livraison est en retard et l'acheteur contacte le service d'assistance pour demander pourquoi son colis n'est pas encore arrivé. Le retard est dû à un transporteur tiers, mais l'agent suit la commande, fournit des mises à jour et propose même de manière proactive un crédit de bonne volonté. Il est toujours possible qu'ils attribuent une faible note à l'enquête de satisfaction de la clientèle parce que le colis n'est pas arrivé à la date prévue.

    Liste de contrôle : Comment rendre le CSAT équitable pour les agents

    Maintenant que vous comprenez toutes les façons dont les scores CSAT peuvent être faussés et inexacts, il est temps de les rendre aussi justes que possible pour vos agents qui travaillent dur. Avec les bonnes questions d'enquête de satisfaction client, vous pouvez trouver des opportunités de coaching, reconnaître les agents les plus performants et identifier les lacunes en matière de compétences.

    Liste de contrôle de l'équité du CSAT : 7 étapes

    • Échantillonner à partir de différents canaux et intentions
    • Assurer un nombre minimum de réponses par agent
    • Normaliser les données en pondérant les différentes zones de l'échantillon.
    • Éviter les enquêtes répétitives et limitées dans le temps
    • Définir comment traiter les cas extrêmes et les valeurs aberrantes
    • Suivre les scores bruts par rapport aux scores normalisés pour chaque agent.
    • Revoir ces critères régulièrement

    1. Prévoir un échantillonnage équitable entre les différents canaux et types de demandes

    Si vous proposez un service client par téléphone, messagerie instantanée, e-mail et médias sociaux, les enquêtes CSAT doivent être présentées sur chacun de ces canaux.

    Il est plus précis de comparer les scores des agents sur le même canal. Lors de la comparaison entre les canaux, la normalisation des données (plus d'informations à ce sujet au point 3) est nécessaire pour prendre en compte les conversations plus difficiles et les escalades.

    Il en va de même pour l'intention de la demande. Pour brosser un tableau plus complet de la satisfaction des clients, les différents types de demandes doivent être analysés séparément lors de l'examen des données brutes du CSAT.

    • Ne comparez pas directement les agents travaillant uniquement par courrier électronique avec les agents travaillant par téléphone, qui sont souvent confrontés à des demandes plus urgentes et à une plus grande frustration.
    • Les personnes qui s'adressent à l'équipe de remboursement ou au service d'assistance aux membres pour annuler leur abonnement sont plus souvent frustrées que celles qui ont simplement besoin de modifier un mot de passe ou qui ont une question à poser sur un produit, par exemple.

    2. Assurer un nombre minimum de réponses par agent

    Avec un petit échantillon de réponses, un score très élevé ou très bas peut affecter considérablement le CSAT moyen d'un agent.

    Cela donne une image inexacte des performances et donne l'impression que l'agent est très performant ou peu performant, alors que ce n'est pas le cas. La fixation d'un nombre minimum, comme 20 à 30 réponses, par exemple, permet de s'assurer que l'analyse porte sur un modèle et non sur un petit instantané.

    • Certains canaux peuvent être confrontés à des taux de réponse CSAT plus faibles. Dans le cas des discussions instantanées, par exemple, les gens sont souvent pressés et ne laissent même pas d'évaluation. Une poignée de réponses ne donne pas une image complète, il est donc préférable d'en collecter davantage au fil du temps avant de tirer des conclusions.
    • Supposons qu'un agent n'ait que cinq réponses au CSAT et que deux d'entre elles soient mal notées : l'une provient d'un client de mauvaise humeur et l'autre d'un client qui n'a pas compris la politique de l'entreprise. Ces notes peuvent faire chuter sa moyenne générale de manière significative, même si la majorité de son travail est excellent.

    3. Normaliser les notes à l'aide d'une pondération

    Les notes peuvent être normalisées en les pondérant, c'est-à-dire en attribuant des valeurs différentes aux réponses CSAT en fonction des canaux ou du type de problème. Cette méthode permet de mieux équilibrer la comparaison des performances des agents lorsque des scénarios plus difficiles à satisfaire sont en jeu.

    • Avec le contexte, un taux de satisfaction de 80 % sur le CSAT pour les escalades peut être égal ou supérieur à 90 % pour les FAQ.

    4. Éviter les enquêtes répétitives ou limitées dans le temps

    Pour obtenir le retour d'information le plus précis possible de la part des clients, il est préférable d'envoyer l'enquête dès que possible après une interaction. Certes, c'est à ce moment-là que les clients peuvent être plus émotifs après des interactions qui ont dégénéré, mais attendre trop longtemps peut les amener à oublier complètement l'enquête.

    • Si un client reçoit une enquête par courrier électronique quelques jours après son interaction avec l'agent, il risque de fonder sa réponse sur la résolution ou non du problème et sur la durée de la procédure, plutôt que sur la qualité de l'assistance qu'il a reçue.

    5. Définir des règles pour les cas limites et les valeurs aberrantes

    Beaucoup de choses échappent au contrôle de l'agent - c'est pourquoi il est important de définir des valeurs aberrantes et des cas limites dans les réponses du CSAT. Il s'agit des réponses des clients qui sont significativement plus élevées ou plus basses que les scores moyens de l'agent, et qui doivent donc être examinées avant qu'elles ne faussent la mesure.

    • Les clients qui ont des problèmes récurrents, plusieurs tickets ouverts ou qui sont transmis à plusieurs agents ont la possibilité de répondre à plusieurs enquêtes de satisfaction client. Par conséquent, s'il y a plusieurs réponses similaires de la même personne, en particulier si les notes sont basses, elles doivent être examinées manuellement avant d'être ajoutées à la moyenne de l'agent, car elles ne reflètent peut-être pas l'interaction la plus récente.
    • Les agents ne rédigent pas les politiques, mais ils sont chargés de les communiquer. Si un agent a obtenu un faible score CSAT après avoir appliqué une politique stricte, par exemple en refusant un remboursement, il pourrait être considéré comme une valeur aberrante "liée à la politique".
    • Pour les questions de suivi des enquêtes de satisfaction des clients qui permettent des réponses ouvertes, les mots chargés d'émotion peuvent être contrôlés et suivis par quelque chose comme l'assurance qualité pilotée par l'IA pour passer en revue toutes les conversations. Si des expressions comme "déçu" ou "je n'ai pas apprécié" peuvent faire partie d'un retour d'information constructif, des mots comme "furieux", "stupide" ou "ridicule" devraient signaler un examen manuel, car ces réponses émotionnelles ne sont souvent pas la meilleure représentation de l'assistance de l'agent.

    6. Suivre les scores bruts par rapport aux scores normalisés

    Il y a une place pour l'analyse des scores CSAT bruts et normalisés. Les deux, lorsqu'ils sont analysés ensemble, donnent une image plus complète et plus juste des performances de l'agent et de l'équipe d'assistance. Les scores bruts montrent comment les clients ont évalué un agent dans l'ensemble, tandis que les scores normalisés tiennent compte du contexte, tel que le canal de support ou le type de problème.

    • Pour comparer les scores CSAT entre les équipes, les canaux et les demandes, les données doivent être normalisées.
    • Les données brutes sont idéales pour suivre les performances d'un agent au fil du temps.

    7. Réviser régulièrement les critères

    Les enquêtes CSAT ne doivent pas être réalisées au hasard, pas plus que leur examen. Envisagez de respecter un calendrier cohérent, qu'il soit mensuel ou trimestriel, afin de ne pas perdre de vue les résultats aberrants et de reconnaître les tendances avant qu'elles ne s'aggravent. Des révisions régulières permettent également de repérer les évaluations liées à des éléments tels que des politiques obsolètes et un changement dans les attentes des clients.

    • Par exemple, les attentes en matière de temps de réponse peuvent évoluer au fil du temps. Ce qui était acceptable il y a un an peut maintenant sembler trop lent, même si l'agent a respecté les normes précédentes.

    Réserver une démo

    Pour un coaching ciblé et un meilleur CSAT, donnez la priorité à l'équité et au contexte

    Les enquêtes de satisfaction du service client sont essentielles pour comprendre l'expérience du client et soutenir le développement des agents. Cependant, elles ne sont précises que lorsqu'elles sont analysées dans leur contexte.

    Si l'on ne tient pas compte de facteurs tels que le type de canal, les valeurs aberrantes, la taille de l'échantillon et le type de demandes, les résultats peuvent donner une image erronée des performances de l'agent. Pour tirer le meilleur parti des enquêtes de satisfaction, les entreprises doivent concevoir leurs processus d'évaluation en tenant compte de l'équité, afin de mieux soutenir le développement des agents et le moral des équipes.

    Une fois que vous êtes sûr de respecter les meilleures pratiques en matière de questions d'enquête et d'analyse équitable, vous pouvez commencer à proposer des sessions de coaching ciblées basées sur des données CSAT réellement précises.


    Téléchargez le plan de coaching des centres d'appels pour agir sur les résultats du CSAT

    Share

    Table of Contents

      FAQ: How to Make Customer Satisfaction Surveys Fair for Agents

      What’s a good CSAT score for contact centers?

      The industry standard for a good CSAT score for a contact center falls between 70%-85%, showing that a majority of respondents were happy with the customer service they received.

      -Above 85% is amazing: Review what’s working and keep doing it.
      -Below 70% means there is likely a skill gap: It’s time to review your service approach.

      Note that this number may vary by industry; an e-commerce support team might aim for 75-80%, while a FinTech support team would likely try to push for 85% or higher. 

      Should I use CSAT, CES, or NPS after support interactions?

      CSAT, CES, and NPS can be utilized altogether to provide a detailed view of agent performance. CSAT and customer effort score (CES) are more immediate and close up, and show if the customer experience with the agent was satisfying and low effort.

      Net Promoter Score (NPS) zooms out and gives insight into long-term customer loyalty. It can be reviewed, say, quarterly, and compared to CSAT and CES trends to understand how individual customer experiences impact brand loyalty over time.

      How many CSAT responses per agent are needed for a fair comparison?

      A common rule of thumb for CSAT is to have at least 20-30 responses for an agent before using the score for performance evaluation and drawing conclusions. This helps reduce the unfair impact of outliers and ensures that any customer feedback data reflects a reliable average.

      Generally, the more responses, the more accurate the overview is. When looking at CSAT responses for something like requiring additional training or giving a bonus, aim to analyze a higher number of responses, such as 50-100+.

      Do CSAT surveys provide product feedback and influence feature development?

      The primary focus of a CSAT survey is service quality but, often, responses to open-ended questions can provide valuable product feedback.

      Mentions of bugs, usability issues, missing product features, and more may pop up when respondents are rating their support experience. And, if you tag and review these responses, your product department and engineering teams might be able to identify recurring themes.

      They can then use this feedback to help steer future product development efforts and prioritize product offerings that directly address pain points and drive stronger CSAT results.

      What is the Likert scale for CSAT surveys?

      A five-point Likert scale question gives respondents a simple way to express their satisfaction or dissatisfaction. Likert scale questions typically offer response ranges such as:

      -“Very dissatisfied” to “Very satisfied”
      -1-5 (or another number range)
      -Or even a sad emoji to happy emoji scale

      Each point on the rating scale, whatever form it takes, represents the intensity of customer sentiment in the response. This helps capture more nuance beyond just “Yes/No” so you can perform a little sentiment analysis and better understand service quality.

      Share