Le Parlement européen franchit une étape cruciale vers l’approbation du premier règlement mondial conçu spécifiquement pour réglementer l’intelligence artificielle. Les commissions du marché intérieur et des libertés publiques ont adopté ce jeudi (à une large majorité de 84 voix pour, 7 contre et 12 abstentions) ses modifications à cette loi, dont la principale nouveauté est qu’elles imposent toute une série de restrictions sur ChatGPT et d’autres modèles de langage basés sur l’IA.
Plus précisément, le nouveau règlement obligera ChatGPT et autres à se conformer à exigences de transparence supplémentairescomme divulguer que le contenu a été généré par l’intelligence artificielle, concevoir le modèle de manière à garantir qu’il ne produira pas de contenu illégal et publier résumés de données protégées par le droit d’auteur utilisé pour former l’algorithme. Ces limitations ne figuraient pas dans la proposition initiale de la Commission d’avril 2021.
« Compte tenu de l’impact transformateur profond que l’IA aura sur nos sociétés et nos économies, la loi sur l’IA est très probablement le projet de loi le plus important de ce mandat. Il s’agit de la première législation de ce type au monde, ce qui signifie que l’UE peut montrer la voie en rendant l’IA fiable, sûre et centrée sur l’humain », a déclaré l’un des rapporteurs du texte, le député libéral roumain Dragos Tudorache.
[Fraude, suplantación y desinformación: Europol alerta sobre los usos delictivos de ChatGPT]
Les amendements doivent encore être ratifiés lors de la plénière de juin. A partir de là, le négociations entre le Parlement européen et les gouvernements des 27 pour convenir de la version finale du règlement, qui devrait être prête avant les élections européennes du printemps 2024.
Le nouveau règlement de l’UE est basé sur une approche basée sur les risques, tant pour la sécurité que pour les droits fondamentaux des citoyens. Au sommet de la pyramide se trouvent le nombre très limité d’applications d’intelligence artificielle qui, selon Bruxelles, posent un « risque inacceptable » et qu’ils seront strictement interdits.
La proposition originale de la Commission incluait dans cette catégorie les systèmes qui utilisent des techniques subliminales pour contourner la volonté des utilisateurs ou des modèles qui permettent la « ponctuation sociale » des citoyens, comme le fait la Chine par exemple. Il a également imposé des exigences très strictes à tous systèmes d’identification biométrique à distance.
Le Parlement européen souhaite élargir et durcir cette liste d’interdictions pour inclure dans tous les cas les systèmes d’identification biométrique à distance « en temps réel » dans les espaces publics, ainsi que les systèmes d’identification biométrique à distance « post, post ». à la seule exception des forces de l’ordre pour la poursuite des crimes graves et seulement avec autorisation judiciaire préalable.
Ils entreraient également dans le liste noire les systèmes de catégorisation biométrique qui utilisent des données sensibles (sexe, race, origine ethnique, statut de citoyen, religion, orientation politique) ; systèmes de police prédictifs (basé sur les profils, l’emplacement ou la conduite criminelle passée) ; les systèmes de reconnaissance des émotions ou la collecte indiscriminée de données biométriques à partir de réseaux sociaux ou de caméras de surveillance pour créer des bases de données de reconnaissance faciale.
Sur la deuxième marche de la pyramide se trouvent les applications d’intelligence artificielle qui, selon Bruxelles, présentent un risque élevé. Dans cette catégorie figurent, par exemple, technologies de notation des testsprogrammes de classification des programmes d’études pour les procédures de recrutement, systèmes de notation de crédit pour accéder à un prêt ou évaluation de la fiabilité des preuves dans les procédures judiciaires.
[Inteligencia artificial: la UE prohibirá la puntuación social y la vigilancia biométrica masiva]
Le Parlement européen veut ajouter à cette liste les systèmes d’IA pour influencer les électeurs dans les campagnes politiques, ainsi que les systèmes de recommandation utilisés par les grandes plateformes de réseaux sociaux.
Ces systèmes à haut risque seront soumis à une série d’obligations strictes avant de pouvoir être mis sur le marché. Parmi eux, des procédures adéquates d’évaluation et d’atténuation des risques, des garanties de haute qualité des données utilisées, des enregistrements d’activité, des informations claires et adéquates pour les utilisateurs et mesures de surveillance humaine appropriées.
La troisième étape du règlement concerne les systèmes d’intelligence artificielle à usage général, qui seront imposés obligations de transparence spécifiques. C’est le cas de faux profond, des bots ou ChatGPT et modèles similaires.
Le Parlement européen souhaite également que le règlement reconnaisse un droit universel pour tous les citoyens de porter plainte contre les systèmes d’intelligence artificielle et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui ont un impact significatif sur leurs droits.
Suivez les sujets qui vous intéressent