« Éteignez l’IA ou nous mourrons tous », prévenait il y a quelques mois l’un des plus grands experts en la matière, Eliezer Yudkowski. Et c’est que depuis que l’accès à ChatGPT et à d’autres modèles et applications d’intelligence artificielle a été autorisé, les avertissements apocalyptiques n’ont pas cessé de venir. Une lettre signée par Sam Altman lui-même, PDG d’OpenAI, et des personnalités comme Elon Musk, a mis en garde contre les pires conséquences de cette technologie, qui peut aussi revendiquer des millions d’emplois dans le monde.
Les appels urgents à la régulation par les administrations sont constants, tout comme les accords comme celui que vient d’annoncer la Maison Blanche. Dans ce document, sept des entreprises leaders dans le développement de cette technologie, telles que Google, Amazon, Microsoft, Meta et OpenAI (en plus d’Inflection et Anthropic), s’engager volontairement pour permettre à des experts indépendants d’analyser et de tester vos systèmes avant qu’ils ne puissent être utilisés par les utilisateurs. En outre, ils doivent partager des informations sur sa sécurité et son fonctionnement avec le gouvernement américain et les institutions universitaires.
Un autre des engagements pris par les géants technologiques qui se démarquent dans ce marché turbulent de l’intelligence artificielle est le développement de solutions pour que le public peut savoir quand un texte, un son, une image ou une vidéo a été créé par l’intelligence artificielle. En fait, c’est quelque chose que des entreprises comme OpenAI ont déjà lancé, qui a lancé en janvier son propre détecteur pour savoir si un texte est écrit par une IA ou un humain, bien que ses résultats laissent encore beaucoup à désirer.
législation mondiale
La signature de cet accord peut être une étape décisive vers la régulation de l’IA, ce qui Il est également produit en Espagne et en Europe. La session plénière du Parlement européen a approuvé le 14 juin une réglementation pionnière dans le monde à cet égard, bien que les créateurs de ChatGPT aient fait pression pour l’assouplir. De son côté, l’ONU a appelé à contrôler l’intelligence artificielle dans une agence mondiale au même titre que le nucléaire.
Certains progrès sont déjà en cours. Une équipe de professionnels externes travaille depuis des mois dans les bureaux d’OpenAI et était chargée d’évaluer les risques éventuels de GPT-4, la dernière version de son logiciel. Pendant ce temps, d’autres entreprises comme Google travaillent sur le développement de quelque chose de similaire à un « filigrane ». Cette solution permettrait identifier le contenu créé avec l’intelligence artificielle générativemais pour l’instant, les utilisateurs doivent regarder d’autres clés pour identifier les fausses photos qui ont été faites avec l’intelligence artificielle.
Au-delà des actions de chacune des entreprises, un haut responsable de la Maison Blanche, qui a parlé au Washington Post sous couvert d’anonymatassuré que l’accord servira à mettre en place des normes plus exigeantes dans le secteur: « Cela va repousser les limites de ce que font les entreprises et relever la barre de la sécurité et de la confiance dans l’IA. »
Biden et son gouvernement, pour qui cette question est une priorité nationale, ne sont pas satisfaits de ces premiers pas vers la régulation. En ce moment, ils préparent déjà un décret exécutif et une législation bipartite qui seront chargés de réglementer l’IA aux États-Unis.
Cette annonce a eu lieu après plusieurs rencontres entre le président Biden et le vice-président Kamala Harris avec des cadres supérieurs du secteur technologique, ainsi que des chercheurs, des défenseurs des droits des consommateurs et des groupes de défense des libertés civiles. En attendant l’arrivée du règlement tant attendu, plusieurs agences gouvernementales étudient différentes manières d’utiliser les lois déjà approuvées pour restreindre certaines utilisations de l’intelligence artificielle.
Tu pourrais aussi aimer:
Suivez les sujets qui vous intéressent