Comment l’IA change la publication scientifique

Une infographie d’un rat avec un pénis démesurément grand. Une autre montrant des jambes humaines avec beaucoup trop d’os. Une introduction qui commence ainsi : « Certainement, voici une introduction possible pour votre sujet ».

Voici quelques-uns des exemples les plus flagrants d’intelligence artificielle qui ont récemment fait leur apparition dans les revues scientifiques, mettant en lumière la vague de textes et d’images générés par l’IA qui déferle sur le secteur de l’édition universitaire.

Plusieurs experts qui traquent les problèmes dans les études ont déclaré à l’ que l’essor de l’IA a aggravé les problèmes existants dans ce secteur de plusieurs milliards de dollars.

Tous les experts ont souligné que les programmes d’IA tels que ChatGPT peuvent être un outil utile pour rédiger ou traduire des articles, s’ils sont soigneusement vérifiés et divulgués.

Mais ce n’était pas le cas pour plusieurs cas récents qui ont d’une manière ou d’une autre échappé à l’examen par les pairs.

Plus tôt cette année, une image clairement générée par l’IA représentant un rat doté d’organes génitaux incroyablement énormes a été largement partagée sur les réseaux sociaux.

L’étude a été publiée dans une revue du géant universitaire Frontiers, qui l’a ensuite rétractée.

Une autre étude a été rétractée le mois dernier en raison d’un graphique d’IA montrant des jambes avec d’étranges os polyarticulés ressemblant à des mains.

Bien que ces exemples soient des images, c’est ChatGPT, un chatbot lancé en novembre 2022, qui semble avoir le plus changé la façon dont les chercheurs du monde entier présentent leurs découvertes.

Une étude publiée par Elsevier est devenue virale en mars pour son introduction, qui était clairement une invite ChatGPT qui disait : « Certainement, voici une introduction possible pour votre sujet ».

De tels exemples embarrassants sont rares et auraient peu de chances de passer le processus d’évaluation par les pairs des revues les plus prestigieuses, ont déclaré plusieurs experts à l’.

Basculement dans les usines à papier

Il n’est pas toujours facile de repérer l’utilisation de l’IA. Mais un indice est que ChatGPT a tendance à privilégier certains mots.

Andrew Gray, bibliothécaire à l’University College de Londres, a parcouru des millions d’articles à la recherche d’une utilisation excessive de mots tels que méticuleux, complexe ou louable.

Il a déterminé qu’au moins 60 000 articles impliquaient l’utilisation de l’IA en 2023, soit plus d’un pour cent du total annuel.

« Pour 2024, nous allons voir des chiffres en augmentation très significative », a déclaré M. Gray à l’.

Entre-temps, plus de 13 000 articles ont été rétractés l’année dernière, de loin le plus grand nombre de l’histoire, selon le groupe américain Retraction Watch.

L’IA a permis aux mauvais acteurs de l’édition scientifique et du monde universitaire d’« industrialiser le débordement » d’articles « indésirables », a déclaré à l’ Ivan Oransky, cofondateur de Retraction Watch.

Parmi ces mauvais acteurs figurent ceux que l’on appelle les usines à papier.

Ces « escrocs » vendent la paternité de leurs travaux à des chercheurs, en produisant de grandes quantités d’articles de très mauvaise qualité, plagiés ou faux, explique Elisabeth Bik, une chercheuse néerlandaise qui détecte les manipulations d’images scientifiques.

On estime que 2% de toutes les études sont publiées par les usines à papier, mais le taux «explose» à mesure que l’IA ouvre les vannes, a déclaré Bik à l’.

Ce problème a été mis en évidence lorsque le géant de l’édition universitaire Wiley a acheté l’éditeur en difficulté Hindawi en 2021.

Depuis, la société américaine a rétracté plus de 11.300 articles liés à des numéros spéciaux d’Hindawi, a indiqué à l’ un porte-parole de Wiley.

Wiley a désormais introduit un « service de détection des usines à papier » pour détecter les abus de l’IA, lui-même alimenté par l’IA.

« Cercle vicieux »

Oransky a souligné que le problème ne résidait pas seulement dans les usines à papier, mais dans une culture universitaire plus large qui pousse les chercheurs à « publier ou périr ».

« Les éditeurs ont créé des marges bénéficiaires de 30 à 40 pour cent et des milliards de dollars de bénéfices en créant ces systèmes qui exigent du volume », a-t-il déclaré.

La demande insatiable de documents toujours plus nombreux exerce une pression supplémentaire sur les universitaires qui sont classés en fonction de leur production, créant un « cercle vicieux », a-t-il déclaré.

Beaucoup se sont tournés vers ChatGPT pour gagner du temps, ce qui n’est pas nécessairement une mauvaise chose.

Étant donné que presque tous les articles sont publiés en anglais, Bik a déclaré que les outils de traduction de l’IA peuvent être d’une valeur inestimable pour les chercheurs – y compris elle-même – pour qui l’anglais n’est pas leur langue maternelle.

Mais certains craignent également que les erreurs, les inventions et le plagiat involontaire de l’IA puissent éroder de plus en plus la confiance de la société dans la science.

Un autre exemple d’utilisation abusive de l’IA s’est produit la semaine dernière, lorsqu’un chercheur a découvert que ce qui semblait être une version réécrite de ChatGPT d’une de ses propres études avait été publiée dans une revue universitaire.

Samuel Payne, professeur de bio-informatique à l’université Brigham Young aux Etats-Unis, a déclaré à l’ qu’il avait été sollicité pour évaluer l’étude en mars.

Après avoir réalisé qu’il s’agissait d’un « plagiat à 100 % » de sa propre étude – mais avec un texte apparemment reformulé par un programme d’IA – il a rejeté l’article.

Payne a déclaré qu’il avait été « choqué » de découvrir que le travail plagié avait simplement été publié ailleurs, dans une nouvelle revue Wiley intitulée Protéomique.

Elle n’a pas été rétractée.

© 2024

ph-tech