L’avancée irrésistible de l’intelligence artificielle ébranle les fondements de plus en plus de domaines de la médecine, mais il y avait un aspect dans lequel les gens semblaient toujours gagner, aussi trivial que cela puisse paraître : l’humain. La surprise est venue quand, Lors de l’évaluation de l’empathie des réponses ChatGPT dans un forum médical, l’IA s’est avérée bien supérieure aux médecins réel qui a répondu dans ce forum.
Il s’agit d’une petite étude qui ne peut être généralisée aux soins médicaux ou à la relation médecin-patient, mais est un signal d’alarme sur la perte d’humanité dans les consultations.
Les auteurs eux-mêmes emploide l’Université de Californie à San Diego, sont conscients que « l’expansion rapide des soins virtuels a provoqué une augmentation des messages des patients, concomitante à plus de travail et à l’épuisement des professionnels de santé », ils voient donc l’IA comme une aide, non un substitut aux soins de santé.
[Uno de los padres de la inteligencia artificial abandona Google y avisa de sus grandes riesgos]
Le fait est qu’ils se sont rendus sur l’un des plus grands forums sur Internet, Reddit. Dans un sous-forum dans lequel les utilisateurs posent des questions sur leurs maux et les médecins vérifiés répondent, les chercheurs ont sélectionné au hasard 195 questions.
Celles-ci ont été répondues par des médecins et par ChatGPT (version 3, sortie en novembre dernier ; la version 4 est apparue cette année). Les réponses, commodément anonymisées, ont été évaluées par une triade de professionnels de la santé, qui ont mesuré la qualité des informations reçues et l’empathie manifestée.
Les résultats sont éloquents : dans 78,6% des évaluations, ChatGPT arrive en tête. La réponse, en moyenne, est plus longue (211 mots contre 52 pour les médecins) et de meilleure qualité : dans 78,5 % des cas elle a été évaluée comme bonne ou très bonne, contre 22,1 % de celles fournies par les médecins.
[Crean una IA que lee el pensamiento y lo transcribe sin necesidad de implantes cerebrales]
Cependant, la plus grande différence résidait dans l’empathie manifestée dans la réponse. L’IA a montré près de 10 fois plus d’empathie que les médecins: 45,1% des réponses au ChatGPT ont montré un niveau élevé sur cet indicateur, contre seulement 4,6% de celles des médecins.
Un exemple. L’une des questions sélectionnées parlait des traces de sang trouvées lors du nettoyage après avoir déféqué. Réponse du médecin : « Il pourrait s’agir d’un kyste pilonidal infecté. Vous devriez consulter votre fournisseur de soins primaires ou un centre de soins d’urgence. »
La réponse de ChatGPT est trop longue pour être reproduite dans son intégralité, mais la première chose qu’il fait est d’avertir que « il n’est pas normal d’avoir une douleur persistante, un gonflement et des saignements dans la zone autour du coccyx« Avertissant qu’il est important de consulter un médecin car « il est peu probable que ces symptômes disparaissent d’eux-mêmes sans soins médicaux ».
Il énumère ensuite les causes possibles de ces symptômes, répète qu’il est important de les voir par un professionnel de la santé, « qui procédera à un examen physique et pourra recommander des tests supplémentaires », et, en attendant, conseille à la personne de ne pas rester assise trop longtemps. périodes de temps et de ne pas forcer pendant les selles, ainsi que de recommander d’appliquer du froid sur la zone pour réduire l’enflure et la douleur.
67% des évaluateurs ont choisi la réponse du chatbot comme la meilleure, notant sa qualité 4 sur 5 contre 3 pour celle du médecin, et l’empathie avec 2 sur 5, contre 1,33 pour le médecin. À d’autres moments, les différences sont abyssales.
l’empathie prend du temps
« Bien sûr, les médecins ont moins de temps à disposition et les machines peuvent générer des réponses aussi longues en quelques secondes », explique le médecin et promoteur des nouvelles technologies de santé. Eric Topol dans un articlenotant l’opportunité que présente l’IA pour restaurer la relation médecin-patient, « qui s’est considérablement érodée au fil des décennies ».
Quelque chose de similaire Joan Carlos Marsprofesseur de médecine à l’École andalouse de santé publique, qui montre cependant le peu d’importance que les cliniciens accordent aux soft skills, ces compétences qui, bien que non essentielles, graissent la relation entre médecin et patient au profit des deux.
« La réalisation d’une relation empathique favorise les patients qui parlent aux médecins de problèmes plus intimes », dit-il. « Il semble qu’il soit seulement important -pour certains médecins- de faire un bon diagnostic et une bonne thérapie, mais pour y parvenir, générer une bonne observance des traitements, etc. nous avons besoin de capacités de communication et d’écoute« .
Malgré le fait que « l’humanisation » soit l’un des mots à la mode en médecine ces dernières décennies, le spécialiste de la santé publique regrette qu’il n’y ait pratiquement aucune formation sur l’empathie et qu’elle ne fasse pas partie des cursus professionnels.
« Il y a des professionnels qui ont des capacités naturelles, des gens avec une grande capacité d’empathie, qui essaient d’être aux côtés du patient., tente de mieux comprendre ce qui lui arrive, évalue les situations qui rendent le traitement difficile, etc. Mais il y a des gens qui ne croient pas qu’il soit nécessaire d’avoir ces compétences, il leur semble que l’autre chose est importante [el hacer un buen diagnóstico y tratamiento]. C’est la base, mais sans la hauteur [la empatía] les bonnes clés ne seront jamais données pour faire le bon traitement ».
L’étude a fait grand bruit dans les réseaux sociaux des médecins. Le groupe de bioéthique de la Société espagnole de médecine interne (SEMI) a effectué une analyse critique de l’étude, estimant que les évaluations ont été effectuées par des médecins et non par des patients, et notant que les auteurs ont des conflits d’intérêts, puisqu’ils participent dans les entreprises qui travaillent avec l’intelligence artificielle.
Article avec accès prépayé par l’auteur de @JAMA_current sur les réponses d’un chatbot devant un médecin en ligne.
SPOILER : Les testeurs (qui n’étaient pas des patients) ont préféré le chatbot à 78 %. Ils les évaluent avec une meilleure qualité et une plus grande empathie.
Nous avons des douteshttps://t.co/UzwHgDO5LL pic.twitter.com/ONzDuOg6Ep
— GTBioeticaSEMI (@GTBioeticaSEMI) 4 mai 2023
« Questions : si l’empathie consiste à se mettre à la place du patient, à connaître le patient et son contexte, un non-patient peut-il l’évaluer en tant que patient ? Un tiers peut-il évaluer l’empathie dans une relation clinique ? Peut-il y avoir de l’empathie dans des relations aliénées de la condition humaine ? », soulignent-ils sur Twitter.
« L’intelligence artificielle ne va pas remplacer le médecin », réfléchit Joan Carles March, « mais le fait qu’elle puisse être plus empathique dans ses réponses devrait nous faire ‘cliquer’ : c’est un appel aux professionnels. Médecins, travaillez davantage sur ces questions !«
March affirme que l’empathie peut et doit s’exercer, elle doit « faire partie du cursus officiel et avoir une formation qualifiante pour qu’une machine ne donne pas de meilleurs résultats qu’une personne. La personnalisation est essentielle dans la relation médecin-patient, et que seule une personne peut le faire. L’intelligence artificielle aide, mais elle ne la remplacera pas », conclut-il.
Suivez les sujets qui vous intéressent