Le G7 pose les bases d’un contrôle mondial du développement de l’intelligence artificielle

Le G7 pose les bases dun controle mondial du developpement

Les sept économies les plus importantes des pays industrialisés (G7) concluront ce lundi un accord pour un code de conduite pour entreprises qui développent des systèmes avancés d’intelligence artificielle (IA)selon un document du G7, à un moment où les gouvernements tentent d’atténuer les risques et les éventuels abus de cette technologie.

Ce code de conduite volontaire voulu par le G7 marquera une étape importante dans le Comment les grands pays réglementeront l’IAsur fond d’inquiétudes concernant les risques en matière de confidentialité et de sécurité, selon le document consulté par Reuters.

Le G7, composé de l’Allemagne, du Canada, des États-Unis, de la France, de l’Italie, du Japon et du Royaume-Uni, ainsi que de l’Union européenne, a lancé le processus en mai lors d’un forum ministériel appelé « Processus d’Hiroshima sur l’IA ».

[LEIA o cómo abordar desde la sociedad civil los retos éticos y jurídicos del desarrollo del metaverso y la IA en España]

Le code en 11 points « est destiné promouvoir une IA sûre et digne de confiance dans le monde entier et fournira des orientations volontaires pour les actions des organisations développant les systèmes d’IA les plus avancés, y compris les modèles fondamentaux et les systèmes d’IA génératifs les plus avancés », indique le document du G7.

Son objectif est « d’aider à réaliser les avantages et à répondre aux risques et aux défis posés par ces technologies ».

Le code appelle les entreprises à prendre des mesures appropriées pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA, ainsi qu’à Traiter les incidents et les schémas d’utilisation abusive une fois que les produits d’IA auront été commercialisés.

Les entreprises devraient publier des rapports sur les capacités, les limites, ainsi que l’utilisation et la mauvaise utilisation des systèmes d’IA, et également investir dans des contrôles de sécurité stricts.

La loi IA

L’UE a été à l’avant-garde de la réglementation des technologies émergentes avec ses une loi convaincante sur l’IAtandis que le Japon, les États-Unis et les pays d’Asie du Sud-Est ont adopté une approche plus permissive que le bloc pour stimuler la croissance économique.

Vera Jourova, commissaire européenne chargée des affaires numériques, a déclaré début octobre lors d’un forum sur la gouvernance de l’Internet à Kyoto, au Japon, qu’un code de conduite est un une base solide pour assurer la sécurité et cela servira de pont jusqu’à ce que des réglementations soient établies.

[España formará parte del organismo de la ONU que regulará el futuro de la inteligencia artificial]

Cette loi choisit d’établir des règles plus ou moins strictes selon le risque que comporte le Utilisation de l’IA : élevée, modérée ou légère. Les plus stricts seront les systèmes « à haut risque », c’est-à-dire ceux qui peuvent affecter l’avenir d’une personne.

De leur côté, les systèmes considérés comme à « risque modéré » et à « risque léger » se voient demander un une certaine transparence.

Le règlement oppose également son veto à tous les systèmes qui présentent un risque et une menace inacceptables pour les personnes ; a également l’intention interdire les systèmes d’identification biométrique.

Suivez les sujets qui vous intéressent

fr-02