Le 8 décembre, vers l’aube, L’Union européenne a donné son feu vert au premier règlement au monde sur l’intelligence artificielle, l’AI Act. Cette règle, travaillée depuis 2021, a fait l’objet du plus long trilogue (conversations entre le Conseil, le Parlement et la Commission européenne) de mémoire pour son approbation : pas moins de 38 heures de négociation marathon sur trois longues journées. à Bruxelles, comme l’a raconté notre correspondant à Bruxelles, Juan Sanhermelando.
Le nouveau règlement de l’UE maintient son Approche fondée sur le risque, tant pour la sécurité que pour les droits fondamentaux des citoyens. Au plus haut échelon de la pyramide se trouvent le nombre très limité d’applications d’intelligence artificielle qui, selon Bruxelles, présentent un « risque inacceptable » et seront strictement interdits.
Cependant, comme D+I – EL ESPAÑOL l’avait déjà annoncé en juillet, le point le plus critique, avec des positions éloignées entre les deux organisations, C’était lié au traitement de la reconnaissance faciale et biométrique en temps réel par les gouvernements dans l’espace public, ce que le Parlement a voulu rejeter complètement, en introduisant une interdiction absolue, tandis que le Conseil a voulu définir certains cas exceptionnels liés à la sécurité nationale. Cette voie, comme nous le verrons ci-dessous, est celle qui a été largement victorieuse.
[La Declaración de Bletchley: el primer paso de consenso global para regular los riesgos de la inteligencia artificial]
Un autre point essentiel de la discussion a été la gouvernance de l’intelligence artificielle au niveau européen, c’est-à-dire de quel type d’organisme elle sera examinée ou contrôlée, qu’il s’agisse d’une agence ou, par exemple, d’un bureau de coordination. Ceci, à défaut de connaître les détails du document, semble être resté dans la même direction que la proposition initiale du Parlement.
Ce qui change avec le nouveau texte
L’une des mesures clés de l’accord est l’interdiction de certaines applications d’IA considérées comme une menace pour les droits des citoyens et la démocratie. Ceux-ci incluent des systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles, telles que les convictions politiques, religieuses, philosophiques, l’orientation sexuelle ou la race. La collecte aveugle d’images faciales provenant d’Internet ou de caméras de vidéosurveillance pour créer des bases de données de reconnaissance faciale est également interdite. D’autres applications interdites sont reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, notation basée sur le comportement social ou des caractéristiques personnelles, des systèmes d’IA qui Ils manipulent le comportement humain pour contourner leur libre arbitre et ceux utilisés pour exploiter les vulnérabilités des personnes en raison de leur âge, de leur handicap ou de leur situation sociale ou économique.
Bien sûr, et voici la nouvelle, les négociateurs ont également convenu une série de garanties et d’exceptions limitées pour l’utilisation de systèmes d’identification biométrique dans les espaces publics à des fins répressives. Celle-ci sera soumise à une autorisation judiciaire préalable et sera limitée à listes de crimes strictement définies.
Par exemple, l’identification biométrique « post-à distance » sera utilisée strictement dans le cadre de la recherche ciblée d’une personne reconnue coupable ou soupçonnée d’avoir commis un crime grave. L’identification biométrique « en temps réel » devra répondre à des conditions strictes et son usage sera limité dans le temps et dans l’espace à des fins spécifiques telles que la recherche de victimes d’enlèvement, de traite, d’exploitation sexuelle, la prévention de menaces terroristes spécifiques et actuelles, ou la localisation ou l’identification d’une personne soupçonnée d’avoir commis des crimes spécifiques mentionnés dans le règlement.
Pour les systèmes d’IA classés à haut risque, en raison de leur potentiel de préjudice important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit, des obligations claires ont été convenues. Les députés ont réussi inclure une évaluation obligatoire de l’impact sur les droits fondamentaux, entre autres exigences, également applicables aux secteurs des assurances et des banques. Les systèmes d’IA utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme étant à haut risque. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et recevez des explications sur les décisions basées sur des systèmes d’IA à haut risque qui ont un impact sur vos droits.
Dans un autre ordre d’idées, et pour tenir compte du large éventail de tâches que les systèmes d’IA peuvent effectuer et de l’expansion rapide de leurs capacités, il a été convenu que les systèmes d’IA à usage général (GPAI) et les modèles GPAI sur lesquels ils sont basés devront adhérer aux exigences de transparence initialement proposées par le Parlement. Celles-ci incluent la production de documentation technique, le respect de la loi européenne sur le droit d’auteur et la diffusion de résumés détaillés sur le contenu utilisé pour votre formation.
Pour les modèles GPAI à fort impact et à risque systémique, tels que ChatGPT, les négociateurs du Parlement ont réussi à obtenir des obligations plus strictes. Si ces modèles répondent à certains critères, ils devront effectuer des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, signaler les incidents graves à la Commission, assurer la cybersécurité et rendre compte de leur efficacité énergétique. Les colégislateurs ont également insisté sur le fait que, jusqu’à ce que des normes européennes harmonisées soient publiées, Les GPAI présentant un risque systémique peuvent s’appuyer sur des codes de bonnes pratiques pour se conformer à la réglementation.
Le non-respect des règles peut entraîner des amendes allant de à partir de 35 millions d’euros soit 7% du chiffre d’affaires global jusqu’à 7,5 millions ou 1,5% du chiffre d’affaires, selon l’infraction et la taille de l’entreprise.
Le texte convenu devra maintenant être formellement adopté par le Parlement et le Conseil pour devenir loi. Nous savons déjà, par exemple, que les commissions du marché intérieur et des libertés civiles du Parlement voteront sur l’accord lors d’une prochaine réunion. L’entrée en vigueur complète du règlement est prévue pour 2026.
Des voix critiques à l’égard de l’accord
« Un accord sans enthousiasme. » C’est ainsi qu’ils se qualifient pour le Association de l’industrie de l’informatique et des communications (CCIA Europe) le résultat de ce trilogue de 38 heures. « Nous reconnaissons le travail acharné des colégislateurs, mais regrettons l’absence de discussions approfondies sur de nombreux points critiques. Sans améliorations majeures au niveau technique dans les semaines à venir, L’AI Act risque d’être une opportunité manquée pour l’Europe« .
Cette association patronale, dans ses réflexions fournies à ce média, souligne certaines améliorations du nouveau texte, comme la possibilité pour les développeurs de démontrer qu’un système ne représente pas un risque élevé. Mais en même temps ils dénoncent que « le texte final constitue un écart majeur par rapport à l’approche raisonnable basée sur les risques proposée par la Commission, qui donnait la priorité à l’innovation plutôt qu’à une réglementation trop prescriptive. De plus, certains systèmes d’IA à faible risque seront désormais soumis à des exigences strictes sans autre justification, tandis que d’autres seront totalement interdits. « Cela pourrait conduire à un exode des entreprises européennes d’IA et des talents cherchant à se développer ailleurs. »
Alors que les entreprises critiquent les restrictions supplémentaires incluses dans le nouveau texte, le monde académique critique précisément le contraire.
« Malheureusement, la rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne. L’impact négatif pourrait être ressenti bien au-delà du secteur de l’IA », affirme le Daniel Friedlaender, vice-président senior et directeur de CCIA Europe.
Ce qui est curieux, c’est que même si les entreprises se plaignent du fait que la nouvelle proposition de loi est plus restrictive, Le monde académique et ceux plus étroitement liés au tiers secteur dénoncent précisément le contraire.
Sarah Chandermilitant pour les droits sociaux et la technologie, membre du réseau EDRI et co-fondateur d’Equinox, critique En ce sens, les « lacunes juridiques » de la nouvelle loi sur l’IA concernant le fait que « les développeurs peuvent définir ce qui constitue un risque élevésur la transparence des forces de l’ordre, ou sur une moindre concentration sur les technologies d’intelligence artificielle à usage général.
De son côté, Laurence Meyer, du Digital Freedom Fund, averti de quoi « La dérogation à la sécurité nationale ouvrira des poursuites pour tenter de garantir les droits humains fondamentaux des groupes marginalisés, que nous ne devrions pas avoir à combattre devant les tribunaux pour commencer. La protection des RH retardée équivaut à une protection des RH refusée.
À son tour, l’ancien représentant de Microsoft auprès de l’Union européenne, Casper Klynge, introduit un dernier élément dans l’équation : l’adaptation du tissu productif à cette norme. « On ne sait pas encore si cela va étouffer l’innovation en Europe. Mais une chose est claire : Les exigences de conformité constitueront un défi majeur pour l’épine dorsale de l’économie européenne : PME« , a-t-il déclaré dans X.
Le contexte de la loi
L’origine de cette législation remonte à avril 2021lorsque la Commission a proposé un premier cadre réglementaire dans lequel ces systèmes étaient abordés, qui a évolué jusqu’à aujourd’hui et qui vise à faire de l’UE la première région du monde à fixer des règles sur les opportunités et les risques dérivés de cette technologie qui avance de manière imparable.
[Carme Artigas: « España no quiere ser testigo, sino protagonista de los grandes cambios digitales »]
Cependant, ce n’est que récemment, le 14 juin, que les députés européens ont adopté une position de négociation à propos de ladite loi. À partir de ce moment, des discussions ont commencé sur la manière dont la législation serait mise en œuvre, dans le but de parvenir à un accord d’ici la fin de cette année.
Le chemin tracé par les organisations européennes pour l’adoption de cette loi coïncide carrément avec la présidence espagnole de l’UE. En effet, l’exécutif espagnol a déclaré à plusieurs reprises que l’application de ce règlement constituait l’un de ses « objectifs principaux » à aborder durant cette période.
« L’Espagne fera de son mieux pour conclure les négociations sur la Loi sur l’AI avec le Parlement européen, en garantissant qu’il ne porte pas atteinte à l’innovation et, en même temps, qu’il protège les droits fondamentaux des personnes », a souligné la délégation espagnole dans le document susmentionné envoyé au Conseil avec ses priorités.
Cependant, en fin de compte, le temps est ce qu’il est et, même si l’exécutif et le monde des affaires espagnol ont initialement parlé dans des termes qui impliquaient que cette loi serait appliquée pendant la présidence espagnole, la vérité est que cette situation C’était hautement improbable.
Comme l’a annoncé D+I – EL ESPAÑOL, l’objectif maximum de la présidence espagnole était cet accord provisoire du trilogue, et non l’approbation de la loi sur l’IA elle-même.
Selon des sources de l’UE consultées par ce biais, pendant les six mois que durera le mandat, ce qui l’objectif attendu est un accord politique provisoire sur le processus de trilogue Dans le meilleur des cas. Et c’est exactement ce qui s’est passé après cette séance marathon à Bruxelles.
« L’adoption est un processus complexe et long qui nécessite une révision juridique et linguistique minutieuse du texte, ce qui prend entre deux et trois mois après l’accord entre le Conseil et le Parlement », précisent ces sources. Il est donc « hautement improbable » qu’il soit approuvé avant « une phase ultérieure » qui aura sûrement lieu sous le prochain mandat belge.
Suivez les sujets qui vous intéressent