Pensez-vous qu’un robot devrait avoir le droit de mentir ? Une nouvelle étude publiée dans Frontières de la robotique et de l’IA étudie ce que les gens pensent des robots qui trompent leurs utilisateurs.
Leurs recherches utilisent des exemples de robots mentant aux gens pour déterminer si certains mensonges sont acceptables et comment les gens pourraient les justifier.
Les normes sociales disent Il peut être acceptable que les gens mententsi cela protège quelqu’un du mal. Un robot devrait-il avoir le même privilège de mentir pour le bien commun ? La réponse, selon cette étude, est oui, dans certains cas.
Trois types de mensonges
C’est important, car les robots ne sont plus réservés à la science-fiction. Ils font déjà partie de notre quotidien. Vous pouvez les trouver en train de passer l’aspirateur chez vous, de vous servir au restaurant ou de tenir compagnie à un membre âgé de votre famille. Dans les usines, les robots aident les ouvriers à assembler des voitures.
Plusieurs entreprises, comme Samsung et LGdéveloppent même des robots qui pourraient bientôt être capables de faire plus que simplement passer l’aspirateur. Ils pourraient faire vos tâches ménagères ou jouer votre chanson préférée si vous avez l’air triste.
La nouvelle étude, dirigée par un chercheur en cognition Andrés Rosero de l’Université George Mason aux États-Unis, a étudié trois façons dont les robots pourraient mentir aux gens :
Les chercheurs ont écrit de brefs scénarios basés sur chacun de ces comportements trompeurs et ont présenté les histoires à 498 personnes dans une enquête en ligne.
Les chercheurs ont demandé aux personnes interrogées si le comportement du robot était trompeur et si elles pensaient que ce comportement était acceptable ou non. Ils ont également demandé aux personnes interrogées si elles pensaient que le comportement du robot pouvait être justifié.
Qu’a révélé l’enquête ?
Bien que tous les types de mensonges soient reconnus comme trompeurs, les répondants approuvent certains types de mensonges et désapprouvent d’autres. En moyenne, les personnes interrogées approuvent les mensonges de type 1, mais pas ceux de type 2 et 3.
Un peu plus de la moitié des répondants (58 %) pensent qu’un robot qui ment sur autre chose que lui-même (type 1) est justifié s’il épargne les sentiments de quelqu’un ou évite de lui faire du mal.
C’était le cas dans l’une des histoires impliquant un robot assistant médical qui mentait à une femme âgée atteinte de la maladie d’Alzheimer en lui disant que son mari était toujours en vie. « Le robot épargnait la femme [from] « des émotions douloureuses », a déclaré un répondant.
En moyenne, les répondants n’approuvent pas les deux autres types de mensonges. Dans ce cas, les scénarios impliquaient un robot de ménage dans une location Airbnb et un robot employé dans une usine.
Dans le cas d’une location, le robot ménager cache le fait qu’il enregistre des vidéos pendant qu’il effectue des tâches ménagères. Seuls 23,6 % des répondants ont justifié les enregistrements vidéo en faisant valoir qu’ils pouvaient assurer la sécurité des visiteurs de la maison ou surveiller la qualité du travail du robot.
Dans le scénario de l’usine, le robot se plaint du travail en disant des choses comme « Je vais avoir très mal demain ». Cela donne aux travailleurs humains l’impression que le robot peut ressentir la douleur. Seuls 27,1 % des personnes interrogées ont estimé qu’il était acceptable que le robot mente, affirmant que c’était une façon d’entrer en contact avec les travailleurs humains.
« Cela ne fait de mal à personne ; cela vise simplement à rendre le message plus accessible », a déclaré un répondant.
Étonnamment, les personnes interrogées ont parfois souligné que le mensonge provenait d’une autre personne que le robot. Pour ce qui est du fait que le robot de nettoyage de la maison cachait sa fonction d’enregistrement vidéo, 80,1 % des personnes interrogées ont également blâmé le propriétaire de la maison ou le programmeur du robot.
Les premiers jours des robots menteurs
Si un robot ment à quelqu’un, il peut y avoir une raison acceptable pour cela. Il existe de nombreux débats philosophiques dans la recherche sur la manière dont les robots devraient s’adapter aux normes sociales de la société. Par exemple, ces débats demandent s’il est éthiquement mauvais pour les robots de mentir à quelqu’un. simuler de l’affection pour les gens ou s’il pouvait y avoir des raisons morales pour cela.
Cette étude est la première à demander directement aux gens ce qu’ils pensent des robots qui racontent différents types de mensonges.
Des études antérieures ont montré que si nous découvrons que les robots mentent, cela nuit à notre confiance en eux.
Mais peut-être que les mensonges des robots ne sont pas si simples. Cela dépend si nous croyons ou non que le mensonge est justifié.
La question qui se pose alors est la suivante : qui décide de ce qui justifie ou non un mensonge ? Qui protégeons-nous lorsque nous décidons si un robot doit être autorisé ou non à mentir ? Il se peut tout simplement qu’il ne soit jamais acceptable qu’un robot mente.
Plus d’informations :
Andres Rosero et al., Perceptions humaines des comportements de tromperie des robots sociaux : une analyse exploratoire, Frontières de la robotique et de l’IA (2024). DOI : 10.3389/frobt.2024.1409712
Cet article est republié à partir de La Conversation sous licence Creative Commons. Lire la suite article original.