« L’intelligence artificielle (IA) avancée pourrait représenter un changement profond dans l’histoire de la vie sur terre, et elle doit être planifiée et gérée avec soin et ressources. » C’est l’un des arguments utilisés par un groupe d’hommes d’affaires du secteur technologique, d’experts et d’hommes politiques pour demander que les expériences les plus puissantes d’intelligence artificielle (IA) soient suspendues pendant six mois. Sur un ton apocalyptique, ils affirment dans leur lettre, publiée par l’asbl ‘Future of Life Institute’, que « les laboratoires d’IA se sont engagés dans une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants ».
Le premier signataire est l’informaticien canadien Yoshua Bengio, l’un des pionniers de l’avancement de l’apprentissage en profondeur, la technologie sur laquelle reposent des systèmes comme ChatGPT. En plus de Elon Musk, PDG de Tesla, Twitter et SpaceX, fait également partie des signataires Steve Wozniak, co-fondateur d’Apple ; l’intellectuel Yuval Noah Harari ou encore l’homme politique Andrew Yang, candidat démocrate des États-Unis à la présidentielle de 2020. Les co-fondateurs de plateformes telles que Skype, Pinterest ou Ripple ont également signé.
« Je partage le sens de la lettre, ce que je ne comprends pas c’est le moratoire de six mois, parce qu’il me semble que c’est un vœu pieux », déclare Senén Barro, docteur en physique, professeur d’informatique et d’intelligence artificielle et directeur scientifique de CiTIUS (Centre singulier de recherche sur les technologies intelligentes de l’Université de Saint-Jacques-de-Compostelle-USC) Il ne partage pas non plus « le ton alarmiste qu’a la lettre, qui a été largement amplifié dans les médias, mais il a un certain ton d’inquiétude comme si une IA était proche qui pourrait échapper à notre contrôle », souligne-t-il.
« Je suis de ceux qui croient qu’un jour viendra où nous aurons une IA à usage général, non pas que dans des intrigues ou des activités spécifiques, elle nous dépasse, car cela se produit déjà, mais d’une manière générale, nous pouvons dire que c’est une intelligence qui nous dépasse ou du moins nous égale. Je pense que ce sera possible un jour, mais aujourd’hui ce n’est pas le cas, ni proche; d’ailleurs, on ne sait pas quelles démarches entreprendre ni dans quelle direction pour cela ».
« Cela ne sert à rien de commencer à spéculer en ce sens et de s’alarmer maintenant », affirme-t-il tout en ajoutant que « Je pense que vous devez vous soucier de l’intelligence artificielle, au moins s’en occuper, car c’est l’ensemble de technologies potentiellement le plus transformateur dans nos vies, dans notre économie, notre emploi, notre éducation, notre santé…, que nous n’avons jamais eu et que nous ne faisons que commencer, pour ainsi dire. Nous constatons déjà qu’à chaque fois qu’il y a de nouvelles avancées, de nouvelles applications, des choses qui surprennent même ceux d’entre nous qui y travaillons, donc, bien sûr, nous devons faire face à cela et réglementer les utilisations de l’intelligence artificielle, bien sûr, nous doit essayer d’anticiper les éventuels mésusages voire les erreurs que nous pourrions commettre dans différents domaines d’application ».
« Ce qui m’inquiète vraiment, c’est que les gouvernements perdent le contrôle devant les grandes entreprises »
Dans la lettre, les signataires font une « appel à tous les laboratoires d’IA » d’arrêter immédiatement l’entraînement des systèmes d’IA plus puissants que le GPT-4″, appelant même à l’intervention des gouvernements pour l’imposer au cas où les parties concernées refuseraient de suspendre temporairement les enquêtes.
Se référant à ChatGPT, le professeur d’informatique de l’Université de La Corogne, Amparo Alonso, souligne que « la technologie est presque toujours en avance sur la législation et cela soulève une série de situations, par exemple, concernant l’utilisation massive de ChatGPT-3, qui a été utilisé par tous ceux que je connais, pour essayer d’en faire un modèle plus transparent, moins biaisé et sans problèmes de confidentialité ou de sécurité », indique-t-il.
« Cela peut être un outil très positif à utiliser, poursuit-il, car cela peut vous aider à mieux rédiger un texte ou à trouver des informations sur quelque chose que vous pouvez utiliser pour vous inspirer. Le problème, c’est l’abus. Il faut filtrer les utilisateurs, aussi les réponses , et aussi légiférer d’une certaine manière sur la question de la collecte et de la conservation des données. S’il existe également des versions payantes et que les données ne sont pas protégées, c’est un problème clair » prévient-il.
Récemment, OpenAI, créateur de ChatGPT, a confirmé que son outil avait subi son premier problème de sécurité majeur lorsque les données privées de certains utilisateurs ont été exposées. En fait, la semaine dernière, l’Italie a bloqué l’accès à ChatGPT et ouvert une enquête contre le chatbot populaire pour une violation présumée des règles de collecte de données.
Alonso assure que « les États-Unis et l’Europe ont une proposition de réglementation éthique de l’IA en cours. En Europe, au moins, il est prévu que cela puisse commencer en 2024, c’est pourquoi nous avons AESIA à La Corogne, car c’est l’agence qui sera chargée de développer les guides et les tests qui doivent être effectués sur toute application d’IA disponible, à vendre, etc., en Europe ; normalement Ce sont des applications dites « à haut risque », pas seulement des chatbots« , souligne-t-il.
« L’Espagne a été proposée comme terrain d’essai à l’UE pour tester cette réglementation, d’où la création de l’AESIA, qui sera la première agence de toute l’Europe pour la surveillance éthique de l’IA et toute cette question devrait être réalisée au cours de 2023 pour que cette législation peut être publiée en 2024, est l’intention au moins en Europe et, par conséquent, il y a un certain moratoire pour voir ce qui se passe avec d’autres applications qui, en principe, pourraient ne pas être considérées comme à haut risque et qui pourraient également demander une série des exigences », souligne Alonso.
« Aux États-Unis, où il y a aussi des problèmes avec la version 4 de ChatGPT, ils parlent aussi de risque pour la vie privée et la sécurité publique ; il a également mené une proposition de loi en octobre 2022 et j’imagine qu’ils seront sur des questions du même type afin qu’ils suspendent ces expériences jusqu’à ce que vous puissiez voir quel type de risques potentiels ils peuvent avoir et voir comment planifier et gérer l’utilisation de ces systèmes et ressources. »
« L’Europe et les États-Unis ont des propositions de régulation éthique de l’IA en cours »
« Ensuite, il y a d’autres types de problèmes, comme la guerre entre les entreprises. Il y a quelques mois, c’est Google qui a pris l’initiative et en ce moment, Microsoft est allé de l’avant avec sa version. Google en aura sûrement un autre et ce qu’ils voudront tous , et cela me semble logique , c’est qu’ils répondent aux exigences de confidentialité et de sécurité pour chacun d’eux », dit-il.
À ce stade, Barro met également en garde sur le fait que «l’utilisation des technologies génère spontanément des accroissements des écarts socio-économiques » et elle pointe vers ce qu’on appelle communément « le chômage technologique dérivé de l’automatisation ». « Je pense qu’il faut maintenant se préoccuper de la façon d’éduquer nos jeunes à la société du renseignement », souligne-t-il. « Une bonne partie de l’intelligence qui va nous entourer est déjà de l’intelligence artificielle, elle a été implantée dans des machines, on voit qu’un ensemble de technologies et leurs applications se développent qui, effectivement, vont avoir un impact énorme sur nos vies, sur notre qualité de vie, dans notre éducation, dans notre emploi, dans la richesse…, et nous voulons être éduqués, informés, nous voulons prendre une décision sur les choses qui nous sont les plus sensibles , et c’est la partie que je signerais une lettre comme ça; mais je ne dirais pas que pendant six mois nous devons nous arrêter, car cela me semble être un toast au soleil. Qui va arrêter, qui va les forcer, pour quoi, quel est le résultat de ces six mois ?
« Des pays les plus développés en IA, celui qui a un contrôle direct sur l’activité de ses entreprises et de ses centres de recherche et universités est la Chine, et c’est celui qui va le moins le faire, il a un pouvoir tout-puissant clé ; mais les États-Unis ne pourraient pas arrêter l’activité de leurs entreprises, ni le développement de nouveaux modèles linguistiques, ni selon quelles applications, et l’Europe non plus », poursuit-il.
« Tous les pays qui sont démocratiques et respecter les droits de l’homme et s’engager auprès de leurs citoyens, ils doivent déjà réfléchir très sérieusement à la manière de réglementer les usages de l’IA et comment investir l’argent public pour qu’il ne reste pas entre les mains des grandes entreprises, comme c’est le cas actuellement », soutient le professeur.
« On met beaucoup l’accent sur l’éthique de l’IA et je pense que c’est essentiel parce que les technologies de l’IA nous confrontent à de nouvelles choses, à des dilemmes ou à des circonstances qui ne s’étaient pas produites auparavant dans notre vie ordinaire ou dans notre environnement professionnel, et cela sert à prendre conscience, pour guider l’évolution législative et réglementaire, mais elle ne pourra jamais s’y substituer ». Vraiment, le Le contrôle que Barro craint de perdre est celui du gouvernement contre les grandes entreprises : « De ce qui devrait être et non, où enquêter et non, jusqu’où nous pouvons aller et où nous devons nous arrêter. »
« Sans réglementation, cela me semble mauvais car c’est un danger », déclare l’avocat Daniel García, qui présente un ouvrage à ce sujet
« Aujourd’hui, il n’y a pas de réglementation. L’intelligence artificielle (IA) est un vide juridique. C’est un jardin sans fleurs dans lequel chacun peut faire ce qu’il veut », déplore l’avocat de Pontevedra Daniel García, qui vient de présenter son travail de fin de master. diplôme sur cette technologie, les « contrats intelligents » et leur importance pour le travail des avocats et des opérateurs juridiques.
Dans « Intelligence artificielle et contrats intelligents, condamnés à se comprendre ? », qu’il a présenté à l’Université Camilo José Cela, il passe en revue l’histoire et le développement de l’intelligence artificielle, le concept d’IA d’un point de vue juridique, depuis les institutions communautaires , le projet de son règlement, portant sur la classification des systèmes d’IA à haut risque, voire interdits.
« Je critique – ajoute García – qu’il n’y a pas assez de réglementation. Il y a une tentative de l’UE mais il n’y a pas d’accord« . De son point de vue « sans régulation ça me paraît mal parce que c’est un danger. Les gens feront ce qu’ils veulent sans tenir compte des particularités de l’IA. »
L’arrêter ne semble pas non plus une alternative, selon son point de vue. « L’IA non régulée est dangereuse. Si elle ralentit, la technologie ne s’arrête pas mais cherche plutôt d’autres subterfuges » qui échapperaient alors au contrôle et à la régulation », nuance-t-il.
Afin de comprendre l’importance du sujet, il pose une question directe et simple : « Que se passera-t-il demain quand l’identité, le visage et la voix d’un influenceur seront supplantés au point de ne pas le rendre reconnaissable en disant quelque chose dans une interview controversée. mécanismes y aura-t-il pour savoir qu’il s’agit d’un ‘faux’ ?
Imaginons que ce que les ‘faux’ commentaires soient même passibles d’être légalement sanctionnés. Comment sera-t-il possible de prouver qu’il n’a pas dit cela et que quelque chose se passera et qu’en sera-t-il de la personne ou de l’entité qui a utilisé la technologie pour se faire passer pour lui ? Ou la responsabilité incombera-t-elle uniquement à la plate-forme ?
Ce ne sont pas les seules questions, Daniel García nous demande également de nous arrêter et de réfléchir à « Qu’adviendra-t-il des œuvres réalisées par l’Intelligence Artificielle ? Y aura-t-il des droits d’auteur ou non ? »
En ces l’Europe en temps de guerre, un autre point important est de savoir s’il doit être interdit en tant qu’arme. « L’ONU_considère que l’IA devrait être interdite à des fins militaires. Elle brise la barrière psychologique d’appuyer ou non sur la gâchette. Si une machine le fait, que se passe-t-il ? », s’interroge ce jeune homme qui travaille pour le cabinet d’avocats Lois Carrera Abogados.
Pour ce faire, il demande de se souvenir de l’incident de la guerre entre l’Ukraine et la Russie lorsque des projectiles sont tombés sur le territoire polonais : « Que se serait-il passé si la défense de la Pologne avait été activée pour répondre automatiquement si un missile tombait ?
Garcia n’est pas un apocalyptique. Il se souvient que « c’est comme quand Internet est né. Les gens en avaient peur parce qu’il n’y avait pas de réglementation. L’intelligence artificielle dans dix ans sera plus développée, dans les activités de tous les jours ».