Les systèmes de service client automatisés utilisant des outils tels que les formulaires en ligne, les chatbots et d’autres interfaces numériques sont de plus en plus courants dans une variété d’industries. Ces outils offrent de nombreux avantages aux entreprises et à leurs clients, mais de nouvelles recherches suggèrent qu’ils peuvent avoir un prix : grâce à deux expériences simples, les chercheurs ont découvert que les gens sont plus de deux fois plus susceptibles de mentir lorsqu’ils interagissent avec un système numérique, comme parler à un personne. En effet, l’une des principales forces psychologiques qui nous encouragent à être honnêtes est le désir intrinsèque de protéger notre réputation, et interagir avec une machine pose généralement moins de risques de réputation que de parler à un véritable humain. La bonne nouvelle est que les chercheurs ont également découvert que les clients les plus susceptibles de tricher choisissent souvent un système de communication numérique (plutôt qu’humain), ce qui permet aux entreprises d’identifier les utilisateurs les plus susceptibles de tricher. Bien sûr, la malhonnêteté numérique ne peut être éliminée. Mais avec une meilleure compréhension de la psychologie qui rend les gens plus ou moins susceptibles de mentir, les entreprises peuvent créer des systèmes qui empêchent la fraude, identifient les cas probables de fraude et encouragent de manière proactive les gens à être plus honnêtes.
Imaginez que vous venez de passer une commande en ligne sur Amazon. Qu’est-ce qui vous empêche de prétendre que l’envoi n’est jamais arrivé et d’exiger un remboursement – même s’il est effectivement arrivé comme promis ? Ou disons que vous venez d’acheter un nouveau téléphone et que vous l’avez immédiatement laissé tomber, faisant craquer l’écran. Vous soumettez une demande de remplacement et le système automatisé vous demandera si le produit est arrivé endommagé ou si le dommage était de votre faute. Que dis-tu?
La malhonnêteté est tout sauf un phénomène nouveau. Alors que les chatbots, les formulaires en ligne et d’autres interfaces numériques deviennent de plus en plus répandus dans une variété d’applications de service client, il est plus facile que jamais de déformer la vérité pour économiser de l’argent. Comment les entreprises peuvent-elles encourager leurs clients à être honnêtes tout en profitant des avantages des outils automatisés ?
Pour explorer cette question, mes coauteurs et moi avons réalisé deux expériences simples qui nous ont permis de mesurer un comportement honnête de manière discrète. Tout d’abord, un chercheur a demandé aux participants de lancer dix fois une pièce de monnaie et leur a dit qu’ils recevraient un prix en argent en fonction des résultats. Certains participants ont signalé leurs résultats de tirage au sort au chercheur par appel vidéo ou chat, tandis que d’autres ont signalé leurs résultats à l’aide d’un formulaire en ligne ou d’un assistant vocal. Ils lançaient les pièces en privé, il n’y avait donc aucun moyen de savoir si un participant individuel mentait, mais nous avons pu estimer le taux de triche pour un groupe de participants (puisque seulement 50 % des lancers de pièces devraient réussir dans l’ensemble).
qu’avons-nous trouvé Lorsque les participants ont signalé à un humain, ils ont signalé une moyenne de 54,5 % de lancers de pièces réussis, pour un taux de triche estimé à 9 %. En revanche, lorsqu’ils signalaient à une machine, ils trichaient 22% du temps. En d’autres termes, il faut encore s’attendre à un peu de triche, mais nos participants étaient plus de deux fois plus susceptibles de tricher lorsqu’ils s’adressaient à un système numérique que lorsqu’ils parlaient à un humain. Nous avons également constaté que la tricherie flagrante, que nous avons définie comme signalant un taux de réussite invraisemblablement élevé de neuf ou dix lancers de pièces réussis, était plus de trois fois plus courante lorsqu’elle était signalée à une machine que lorsqu’elle était signalée à un humain.
Ensuite, grâce à une enquête de suivi, nous avons constaté que le principal mécanisme psychologique à l’origine de cet effet était le souci des participants pour leur réputation personnelle. Nous avons posé une série de questions pour mesurer l’inquiétude des participants sur la façon dont le chercheur les percevait, et nous avons constaté que ceux qui rapportaient leurs lancers de pièces à une machine se sentaient beaucoup moins proches du chercheur et, par conséquent, étaient beaucoup moins préoccupés par leur réputations personnelles que ceux qui ont signalé au chercheur. Par conséquent, nous avons émis l’hypothèse qu’anthropomorphiser le système de signalement numérique (dans notre cas, en lui donnant une voix humaine au lieu d’une interface en texte brut) pourrait le rendre plus humain et donc rendre les participants plus soucieux de préserver la leur. mensonge. Cependant, nous avons constaté que les participants trichaient toujours autant, ce qui suggère qu’il est peu probable que le fait de savoir qu’ils interagissent avec une machine fasse une grande différence.
Bien sûr, il est possible que des progrès dans des systèmes d’IA de type humain convaincants puissent en faire une stratégie plus efficace à l’avenir. Mais pour l’instant, il est clair que la fraude aux outils numériques est beaucoup plus courante et qu’il n’y a pas de solution miracle évidente.
La bonne nouvelle est que notre deuxième expérience a identifié une stratégie qui peut aider les entreprises à résoudre ce problème : si la malhonnêteté ne peut pas être éliminée, il est possible de la prédire. qui est plus susceptible de mentir à un robot et exhorte ensuite ces utilisateurs à utiliser un canal de communication humain à la place.
Dans cette expérience, nous avons d’abord évalué la propension générale des participants à tricher en leur demandant de lancer une pièce 10 fois et de rapporter les résultats via un formulaire en ligne, puis en les catégorisant comme « tricheurs probables » et « diseurs de bonne aventure probables » en conséquence. . Dans la partie suivante de l’expérience, nous leur avons donné le choix de signaler leurs lancers de pièces à un humain ou via un formulaire en ligne. Dans l’ensemble, environ la moitié des participants préféraient une forme humaine et l’autre moitié préféraient le formulaire en ligne – mais lorsque nous avons regardé de plus près, nous avons constaté que les « escrocs probables » étaient beaucoup plus susceptibles de choisir le formulaire en ligne, tandis que les « diseurs de vérité probables » le préféraient. signaler à un humain. Cela suggère que les personnes plus proactives dans la tricherie essaient d’éviter les situations où elles doivent faire cela à une personne (plutôt qu’à une machine), probablement en raison d’une prise de conscience consciente ou subconsciente que mentir à un humain serait plus inconfortable psychologiquement.
Ainsi, si les personnes malhonnêtes ont tendance à choisir elles-mêmes les canaux de communication numériques, cela pourrait offrir un moyen de mieux détecter et réduire la fraude. En particulier, la collecte de données indiquant si les clients choisissent d’utiliser des canaux de communication virtuels plutôt qu’humains pourrait compléter les efforts existants des entreprises pour identifier les utilisateurs les plus susceptibles de tricher et permettre à ces organisations de concentrer plus efficacement leurs ressources de détection des fraudes . Bien sûr, les clients peuvent découvrir ce que font les entreprises et essayer de tromper le système en choisissant de parler à un vrai agent pour éviter d’être signalé comme plus risqué – mais c’est vraiment un gagnant-gagnant , car selon nos recherches, vous êtes beaucoup plus susceptibles d’agir honnêtement lorsqu’ils parlent à un humain.
En fin de compte, il n’y a pas de remède à la malhonnêteté numérique. Après tout, mentir à un robot n’est pas aussi désagréable que de mentir au visage d’un vrai humain. Les humains sont câblés pour protéger leur réputation, et les machines ne posent pas les mêmes menaces de réputation que les humains. Mais avec une meilleure compréhension de la psychologie qui rend les gens plus ou moins susceptibles de mentir, les organisations peuvent créer des systèmes qui détectent les cas probables de tricherie et, idéalement, amener les gens à être plus honnêtes.
Le post Les clients mentent-ils à votre chatbot ? est apparu en premier sur Germanic News.