Faire face aux risques de l’IA dans la recherche

L’intelligence artificielle (IA) est largement saluée pour son potentiel à améliorer la productivité de la recherche scientifique. Mais cette promesse comporte des risques qui pourraient restreindre la capacité des scientifiques à mieux comprendre le monde, selon un nouvel article co-écrit par un anthropologue de Yale.

Selon les auteurs, certaines futures approches de l’IA pourraient restreindre les questions posées par les chercheurs, les expériences qu’ils réalisent et les perspectives qui pèsent sur les données et théories scientifiques.

Au total, ces facteurs pourraient rendre les gens vulnérables aux « illusions de compréhension » dans lesquelles ils croient comprendre le monde mieux qu’eux.

Le Article de perspective est publié dans Nature.

« Il existe un risque que les scientifiques utilisent l’IA pour produire plus tout en comprenant moins », a déclaré Lisa Messeri, anthropologue à la Faculté des Arts et des Sciences de Yale. « Nous ne disons pas que les scientifiques ne devraient pas utiliser les outils d’IA, mais nous plaidons pour une conversation sur la manière dont les scientifiques les utiliseront et suggérons que nous ne devrions pas automatiquement supposer que toutes les utilisations de la technologie, ou l’utilisation omniprésente de cela profitera à la science.

L’article, co-écrit par MJ Crockett, spécialiste des sciences cognitives à Princeton, établit un cadre pour discuter des risques liés à l’utilisation des outils d’IA tout au long du processus de recherche scientifique, depuis la conception de l’étude jusqu’à l’examen par les pairs.

« Nous espérons que cet article offrira un vocabulaire pour parler des risques épistémiques potentiels de l’IA », a déclaré Messeri.

Crockett a ajouté : « Pour comprendre ces risques, les scientifiques peuvent bénéficier des travaux des sciences humaines et des sciences sociales qualitatives. »

Messeri et Crockett ont classé les visions proposées de l’IA couvrant le processus scientifique qui suscitent actuellement le buzz parmi les chercheurs en quatre archétypes :

  • Dans la conception des études, affirment-ils, les outils « IA comme Oracle » sont imaginés comme étant capables de rechercher, d’évaluer et de résumer de manière objective et efficace des littératures scientifiques massives, aidant ainsi les chercheurs à formuler des questions dès la phase de conception de leur projet.
  • Dans la collecte de données, on espère que les applications « IA comme substitut » permettront aux scientifiques de générer des points de données de remplacement précis, notamment en remplacement des participants humains à l’étude, lorsque les données sont autrement trop difficiles ou trop coûteuses à obtenir.
  • En matière d’analyse de données, les outils « IA as Quant » cherchent à surpasser la capacité de l’intellect humain à analyser des ensembles de données vastes et complexes.
  • Et les applications « l’IA en tant qu’arbitre » visent à évaluer objectivement les études scientifiques en termes de mérite et de reproductibilité, remplaçant ainsi les humains dans le processus d’évaluation par les pairs.
  • Les auteurs mettent en garde contre le fait de considérer les applications d’IA de ces quatre archétypes comme des partenaires de confiance, plutôt que comme de simples outils, dans la production de connaissances scientifiques. Cela, disent-ils, pourrait rendre les scientifiques sensibles aux illusions de compréhension, ce qui pourrait fausser leurs perspectives et les convaincre qu’ils en savent plus qu’eux-mêmes.

    L’efficacité et les connaissances que promettent les outils d’IA peuvent affaiblir la production de connaissances scientifiques en créant des « monocultures du savoir », dans lesquelles les chercheurs donnent la priorité aux questions et aux méthodes les mieux adaptées à l’IA par rapport aux autres modes d’enquête, affirment Messeri et Crockett. Un environnement scientifique de ce type laisse les chercheurs vulnérables à ce qu’ils appellent des « illusions d’étendue exploratoire », où les scientifiques croient à tort qu’ils explorent toutes les hypothèses vérifiables, alors qu’ils n’examinent qu’un éventail plus restreint de questions pouvant être testées grâce à l’IA.

    Par exemple, les outils d’IA « de substitution » qui semblent imiter avec précision les réponses humaines aux enquêtes pourraient rendre les expériences nécessitant des mesures du comportement physique ou des interactions en face-à-face de plus en plus impopulaires car elles sont plus lentes et plus coûteuses à mener, a déclaré Crockett.

    Les auteurs décrivent également la possibilité que les outils d’IA soient considérés comme plus objectifs et plus fiables que les scientifiques humains, créant ainsi une « monoculture de connaisseurs » dans laquelle les systèmes d’IA sont traités comme des connaisseurs singuliers, faisant autorité et objectifs, au lieu d’une communauté scientifique diversifiée. scientifiques aux parcours, formations et expertises variés. Une monoculture, disent-ils, suscite des « illusions d’objectivité » dans lesquelles les scientifiques croient à tort que les outils d’IA n’ont aucune perspective ou représentent toutes les perspectives alors qu’en réalité, ils représentent les points de vue des informaticiens qui les ont développés et formés.

    « Il existe une croyance autour de la science selon laquelle l’observateur objectif est le créateur idéal de connaissances sur le monde », a déclaré Messeri. « Mais c’est un mythe. Il n’y a jamais eu de » connaisseur  » objectif, il ne pourra jamais y en avoir, et continuer à poursuivre ce mythe ne fait qu’affaiblir la science. « 

    Il existe des preuves substantielles que la diversité humaine rend la science plus solide et plus créative, ajoutent les auteurs.

    « Reconnaître que la science est une pratique sociale qui bénéficie de la diversité des points de vue nous aidera à réaliser son plein potentiel », a déclaré Crockett. « Le remplacement de divers points de vue par des outils d’IA fera reculer les progrès que nous avons réalisés pour inclure davantage de perspectives dans le travail scientifique. »

    Il est important de garder à l’esprit les implications sociales de l’IA, qui s’étendent bien au-delà des laboratoires où elle est utilisée dans la recherche, a déclaré Messeri.

    « Nous formons les scientifiques à réfléchir aux aspects techniques des nouvelles technologies », a-t-elle déclaré. « Nous ne les formons pas aussi bien à prendre en compte les aspects sociaux, qui sont vitaux pour les travaux futurs dans ce domaine. »

    Plus d’information:
    Lisa Messeri et al, Intelligence artificielle et illusions de compréhension dans la recherche scientifique, Nature (2024). DOI : 10.1038/s41586-024-07146-0

    Fourni par l’Université de Yale

    ph-tech