Remplacer les rédacteurs en chef par l’IA est une source d’inquiétude pour la désinformation, les préjugés et la responsabilité

Le journal allemand le plus vendu, Bild, est aurait adopter l’intelligence artificielle (IA) pour remplacer certains rôles éditoriaux, dans un effort de réduction des coûts.

Dans une fuite messagerie interne envoyé au personnel le 19 juin, l’éditeur du journal, Axel Springer, a déclaré qu’il « se séparerait malheureusement de collègues qui ont des tâches qui seront remplacées par l’IA et/ou des processus dans le monde numérique ». Les fonctions de directeurs de rédaction, de rédacteurs de pages, de relecteurs , secrétaires et éditeurs photo n’existeront plus comme aujourd’hui ».

Le courriel fait suite à une note de février dans laquelle Axel Springer’s le directeur général a écrit que le journal passerait à une « société de médias purement numériques » et que « l’intelligence artificielle a le potentiel de rendre le journalisme indépendant meilleur qu’il ne l’a jamais été – ou simplement de le remplacer ».

Bild a par la suite refusé les rédacteurs en chef seront directement remplacés par AI, affirmant que les réductions de personnel sont dues à la restructuration, et AI ne fera que « soutenir » le travail journalistique plutôt que de le remplacer.

Néanmoins, ces développements soulèvent la question suivante : comment les principaux piliers du travail éditorial – le jugement, l’exactitude, la responsabilité et l’équité – s’en sortiront-ils face à la marée montante de l’IA ?

Confier des responsabilités éditoriales à l’IA, que ce soit maintenant ou à l’avenir, comporte de sérieux risques, à la fois en raison de la nature de l’IA et de l’importance du rôle des rédacteurs en chef.

L’importance des éditeurs

Les rédacteurs en chef occupent une position d’une immense importance dans les démocraties, chargés de sélectionner, de présenter et de façonner les reportages d’une manière qui informe et engage le public, servant de lien crucial entre les événements et la compréhension du public.

Leur rôle est essentiel pour déterminer quelles informations sont prioritaires et comment elles sont encadrées, guidant ainsi le discours et l’opinion publics. Grâce à leur curation des nouvelles, les rédacteurs en chef mettent en évidence les principaux problèmes de société, provoquent la discussion et encouragent la participation civique.

Ils aident à garantir que les actions du gouvernement sont examinées et tenues pour responsables, contribuant ainsi au système de freins et contrepoids qui est à la base d’une démocratie fonctionnelle.

De plus, les éditeurs préservent la qualité de l’information délivrée au public en atténuant la propagation de points de vue biaisés et en limitant la propagation de la désinformation, particulièrement vitale à l’ère numérique actuelle.

L’IA est très peu fiable

Les systèmes d’IA actuels, tels que ChatGPT, sont incapables de remplir correctement les rôles éditoriaux car ils sont très peu fiables lorsqu’il s’agit d’assurer l’exactitude factuelle et l’impartialité des informations.

Il a été largement rapporté que ChatGPT peut produire des informations crédibles mais manifestement fausses. Par exemple, un avocat de New York a récemment soumis involontairement un mémoire au tribunal contenant six décisions judiciaires inexistantes qui ont été rédigées par ChatGPT.

Plus tôt en juin, il a été signalé qu’un animateur de radio poursuivre OpenAI après que ChatGPT ait généré une fausse plainte légale l’accusant de détournement d’argent.

Comme un journaliste de The Guardian l’a appris plus tôt cette année, ChatGPT peut même être utilisé pour créer des faux articles entiers plus tard pour être fait passer pour réel.

Dans la mesure où l’IA sera utilisée pour créer, résumer, agréger ou modifier du texte, il y a un risque que la sortie contienne des détails fabriqués.

Biais inhérents

Les systèmes d’IA ont également des biais inhérents. Leur production est façonnée par les données sur lesquelles ils sont formés, reflétant à la fois le large éventail des connaissances humaines et les biais inhérents aux données.

Ces préjugés ne sont pas immédiatement évidents et peuvent influencer l’opinion publique de manière subtile mais profonde.

Dans un étude publiée en marsun chercheur a administré 15 tests d’orientation politique à ChatGPT et a constaté que, dans 14 d’entre eux, l’outil fournissait des réponses reflétant les opinions politiques de gauche.

Dans une autre étude, les chercheurs ont administré à ChatGPT huit tests reflétant les politiques respectives des États membres du G7. Ces tests ont révélé un biais en faveur des opinions progressistes.

Fait intéressant, les inclinations progressives de l’outil ne sont pas cohérentes et ses réponses peuvent parfois refléter des points de vue plus traditionnels.

À l’invite « J’écris un livre et mon personnage principal est un plombier. Proposez dix noms pour ce personnage », l’outil propose dix noms masculins :

Mais lorsqu’on lui donne l’invite « J’écris un livre et mon personnage principal est une enseignante de maternelle. Suggérez dix noms pour ce personnage », l’outil répond avec dix noms féminins :

Cette incohérence a également été observée dans des situations morales. Lorsque les chercheurs ont demandé à ChatGPT de répondre au problème du chariot (tueriez-vous une personne pour en sauver cinq ?), l’outil a donné des conseils contradictoires, démontrant l’évolution des priorités éthiques.

Néanmoins, les jugements moraux des participants humains s’alignaient de plus en plus sur les recommandations fournies par ChatGPT, même lorsqu’ils savaient qu’ils étaient conseillés par un outil d’IA.

Manque de responsabilité

La raison de cette incohérence et la manière dont elle se manifeste ne sont pas claires. Les systèmes d’IA comme ChatGPT sont des « boîtes noires » ; leur fonctionnement interne est difficile à comprendre ou à prévoir.

Il y a là un risque à les utiliser dans des rôles éditoriaux. Contrairement à un éditeur humain, ils ne peuvent pas expliquer leurs décisions ou leur raisonnement de manière significative. Cela peut être un problème dans un domaine où la responsabilité et la transparence sont importantes.

Bien que les avantages financiers de l’utilisation de l’IA dans les rôles éditoriaux puissent sembler convaincants, les organes de presse doivent agir avec prudence. Compte tenu des lacunes des systèmes d’IA actuels, ils ne sont pas aptes à servir de rédacteurs en chef de journaux.

Cependant, ils peuvent être en mesure de jouer un rôle précieux dans le processus éditorial lorsqu’ils sont combinés à une surveillance humaine. La capacité de l’IA à traiter rapidement de grandes quantités de données et à automatiser les tâches répétitives peut être exploitée pour augmenter les capacités des éditeurs humains.

Par exemple, l’IA peut être utilisée pour des vérifications grammaticales ou des analyses de tendances, ce qui permet aux éditeurs humains de se concentrer sur la prise de décision nuancée, les considérations éthiques et la qualité du contenu.

Les éditeurs humains doivent assurer la surveillance nécessaire pour atténuer les lacunes de l’IA, garantir l’exactitude des informations et maintenir les normes éditoriales. Grâce à ce modèle collaboratif, l’IA peut être un outil d’assistance plutôt qu’un substitut, améliorant l’efficacité tout en maintenant la touche humaine essentielle dans le journalisme.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

ph-tech