Alors que les gouvernements n’ont pas encore trouvé la formule pour soumettre la production de contenus sur les réseaux sociaux à l’examen public, un nouveau défi résultant du développement technologique incessant plane sur nos démocraties.
La nouvelle génération d’intelligences artificielles constitue la dernière phase de la frénétique révolution numérique caractéristique du XXIe siècle. Les assistants virtuels comme ChatGPT sont capables de reproduire l’interaction humaine et le langage naturel avec une fidélité étonnante. En plus du texte, ces modèles, développés par la société OpenAI, peuvent produire des images et des vidéos étonnamment réalistes.
Dans sa nouvelle série d’interviews, ce journal soumet différents dirigeants politiques au polygraphe de l’intelligence artificielle (IA). Celui que nous publions aujourd’hui confronte Inès Arrimadas avec une photo générée par ChatGPT qui simule un câlin entre l’ancien président de Ciudadanos et Mick Jagger. Une rencontre qui n’a jamais eu lieu, mais que toute personne non avertie aurait pu confondre avec une image réelle.
ChatGPT lui-même certifie qu' »il n’y a pas de relation connue entre Inés Arrimadas et Mick Jagger », bien qu’il précise qu' »il est possible qu’ils aient coïncidé ». Le député orange, très éloquent, précise que c’est ce que « dans le domaine juridique, on appelle une preuve diabolique. Je ne peux pas prouver que je n’ai pas eu de relation avec Mick Jagger ! ».
Cette expérience, qui peut sembler un jeu innocent, pointe en réalité une réalité inquiétante. Parce que avec l’intelligence artificielle générative il deviendra de plus en plus difficile de discerner le vrai du mensonge.
Comme dans le cas d’Arrimadas, il peut arriver un moment où des images compromettantes générées par l’IA placent les individus devant quelque chose qui ressemble aux procès de l’eau ou aux autres procédures inquisitoires macabres des chasses aux sorcières médiévales. Autrement dit, face à la situation d’avoir à prouver quelque chose d’impossible à prouver. Montrez que quelque chose (même matériellement impossible) ne s’est pas produit.
En raison de tels risques, de plus en plus de voix faisant autorité expriment leurs doutes quant à un développement technologique qui, malgré ses avantages multiples et incontestables, constitue également une menace sérieuse pour la vérité telle que nous la connaissons.
En effet, près de 4 000 personnalités du monde des sciences et des sciences humaines, dont Elon Muskont demandé dans une lettre ouverte une pause de précaution sur le développement du marché des services d’IA, étant donné la perspective que les technologies de super-intelligence puissent même échapper au contrôle de leurs créateurs.
Parce que des outils comme ChatGPT sont annonciateurs d’une nouvelle transformation sociale à l’impact politique et économique sans précédent. Et avant que les entreprises ne se livrent aveuglément à la course à l’intelligence artificielle, il est nécessaire que les pouvoirs publics et la société dans son ensemble réfléchissent profondément aux implications de ces dispositifs puissants.
Les nouvelles technologies apportent avec elles toute une série de problèmes liés aux biais des algorithmes, aux dangers pour la vie privée des utilisateurs ou à la vulnérabilité aux cyberattaques, pour n’en nommer que quelques-uns.
Pour cette raison, et conformément aux réglementations que l’Union européenne promeut depuis 2018 dans le but de réglementer ChatGPT et le reste des intelligences artificielles, Les gouvernements doivent se doter d’un nouveau cadre juridique pour l’ère numérique basé sur une stratégie commune. Par ailleurs, il serait souhaitable que le Congrès des députés accueille prochainement un débat sur l’intelligence artificielle.
Les conséquences imprévisibles de ces nouvelles technologies (telles que leur impact sur le marché du travail ou l’éducation) nécessitent la conception de protocoles de sécurité et de contrôles de transparence similaires à ceux qui commencent à être appliqués aux Big Tech.
Certes, les risques associés à l’IA ne sont pas entièrement nouveaux. Des artifices tels que les soi-disant deep fakes, ou des phénomènes tels que les campagnes de désinformation par le biais de fake news sur les réseaux sociaux, ont déjà provoqué une perturbation notable du processus politique dans les démocraties.
Cependant, Des avancées comme ChatGPT peuvent faire avancer la crise de confiance dans les institutions et dans les instances épistémiques qui s’emparent du monde occidental.
Car aujourd’hui une image vaut mille mots, surtout si l’image est fausse. Et nous risquons d’arriver à un scénario où les canulars et les fausses images finissent par ne plus faire croire à rien, avec les conséquences désastreuses (et réelles) que cela implique pour nos systèmes politiques.
Nous étions déjà plongés dans l’ère dite de la post-vérité, dans laquelle de moins en moins de gens semblaient se soucier de la vérité. Or, la nouvelle génération d’intelligence artificielle va encore la dévaloriser, puisque ces systèmes, dont le métier est d’imiter, se fichent de ce qui est vrai ou de ce qui ne l’est pas. Mais, précisément pour cette raison, c’est maintenant que le critère humain est réévalué pour distinguer la réalité de la fiction.
Dans le nouveau royaume du plausible contre le vrai, il peut être impossible de savoir si quelque chose s’est passé. Il est donc urgent de définir la gouvernance à l’ère numérique.
Suivez les sujets qui vous intéressent