Les experts soulignent l’importance d’autres droits de l’homme dans l’utilisation de l’IA dans les situations de guerre

Les experts soulignent limportance dautres droits de lhomme dans lutilisation

L’intelligence artificielle en temps de guerre. Alors que certains pays imposent des limites éthiques à l’application de nouvelles technologies dans leurs armes, d’autres pays ne respectent pas ces limites. Des décisions qui se prennent en quelques dixièmes de seconde et pour lesquelles ces systèmes peuvent aider, même si l’une des clés pour garantir le respect des droits de l’homme est de pouvoir expliquer comment l’algorithme a pris la décision. Cela a été révélé lors de la table consacrée à ce sujet dans le cadre du III Forum européen sur l’intelligence artificielle, organisé par Information, Prensa Ibérica, ELLIS Alicante, Encuentros NOW et l’Académie Royale d’Ingénierie d’Espagne. Le III Forum sur l’Intelligence Artificielle a analysé le défi de l’utilisation de ces nouvelles technologies dans les domaines de la cybersécurité et de la défense mondiale. Une table ronde à laquelle Ángel Gómez de Ágreda, membre fondateur et membre du conseil d’administration de l’Observatoire de l’impact social et éthique de l’intelligence artificielle (OdiseIA) ; Colonel Javier Bermejo Higuera, chef du département TIC de la Sous-direction des systèmes terrestres de l’INTA ; et Eugenia Hernández, directrice de l’UNTIT, Unité d’analyse du renseignement du SEI et des relations internationales à l’UAM. La table était animée par le directeur du CENID Manuel Palomar.

Gómez de Ágreda a souligné que les technologies militaires n’ont généralement pas de version bêta, mais sont appliquées directement sur le champ de bataille, directement et appliquées à la sphère civile. C’est pour cette raison qu’il a souligné l’importance de prendre en compte les implications éthiques et morales que soulève ce domaine. « Lorsque vous laissez l’intelligence artificielle prendre les décisions, la guerre s’intensifie plus rapidement, devient plus violente et conduit à une confrontation nucléaire dans les simulations », a-t-il prévenu. Bien qu’il existe une volonté réglementaire dans l’utilisation de l’intelligence artificielle afin que ces valeurs éthiques ne soient pas laissées pour compte, Gómez de Ágreda a averti que c’est précisément dans les systèmes les plus dangereux que ce consensus n’existe pas. Dans ce contexte, il a fait référence aux systèmes d’armes létaux autonomes connus sous le nom de « robots tueurs ». La course aux armements se concentre sur la production technologique », a-t-il déclaré, insistant sur la nécessité pour les êtres humains de ne pas devenir le bouc émissaire des décisions prises par les machines dans des scénarios de guerre. Selon lui, la létalité n’est pas caractéristique de ces systèmes, mais de la guerre. L’utilisation de ces systèmes est justifiée par la capacité de distinguer les objectifs civils et militaires et de réduire le stress du combattant qui doit prendre des décisions de vie ou de mort parfois en quelques dixièmes de seconde, Gómez de Ágreda a souligné qu’aucune d’elles n’est vraie. Face à la différence technologique entre l’Occident et la Chine, il a souligné que l’avantage de la première est d’avoir une approche plus flexible qui lui permet de mieux surmonter les problèmes à long terme.

Les experts pendant la conférence / Alex Domínguez

Pour sa part, pour le colonel Javier Bermejo, l’un des défis de l’utilisation de l’intelligence artificielle en matière de défense est l’explicabilité et la transparence de la prise de décision, notamment en évaluant la provenance de l’information. Bermejo a commencé par analyser la grande différence dans les dépenses d’investissement dans les technologies de rupture appliquées à la défense, à la cybersécurité et à la robotique entre les États-Unis et l’Europe. Un total de 135 milliards de dollars par an dans le cas nord-américain, contre 8 milliards pour le vieux continent. Selon lui, l’intelligence artificielle n’est pas une capacité militaire en soi, mais représente plutôt une amélioration des performances dans des domaines tels que la guerre technologique, la logistique prédictive et la cybersécurité. Comme il l’a expliqué, le commandement continue de prendre la décision, mais il dispose de différentes lignes d’action qui l’aident à le faire et proposent des options. Parmi les différentes initiatives de la Défense espagnole, il a mentionné le Centre expérimental de technologie de défense (CETEDEX) de Jaén, axé sur l’utilisation de drones et la navigation. Les défis à venir incluent la gestion d’essaims de drones contrôlés par l’intelligence artificielle ou la recherche de systèmes de navigation sans signaux satellite utilisant des algorithmes avancés. D’autres projets en cours au niveau européen via l’Institut national de technologie aérospatiale (INTA) portent sur l’amélioration de la navigation des missiles hypersoniques grâce à l’IA, ainsi que sur la reconnaissance automatique des cibles.

De même, Eugenia Hernández a souligné l’importance de cette utilisation des armes de l’intelligence artificielle non pas pour générer la guerre, mais pour garantir la paix. « Nous sommes dans une période de compétition de pouvoir, où les grandes puissances enfreignent les règles internationales pour imposer leur réalité », en prenant comme exemple le scénario de guerre de la guerre en Ukraine. C’est pour cette raison qu’il a souligné l’importance de disposer d’une autonomie stratégique pour nous défendre et développer notre technologie. Par rapport aux scénarios traditionnels de combat sur terre, sur mer et dans les airs dans lesquels se déroule une guerre, de nouveaux scénarios apparaissent comme celui du cyberespace et du réseau satellitaire.

fr-03