Les militaires répondent à l’appel. L’Otan a annoncé le 30 juin qu’elle mettrait en place un fonds d’innovation d’un milliard de dollars qui investira dans des start-ups et des fonds de capital-risque de démarrage développant des technologies « prioritaires » telles que l’intelligence artificielle, le big data, le développement du traitement et l’automatisation.
Depuis le début de la guerre, la Grande-Bretagne s’est lancée dans une nouvelle stratégie d’IA spécifiquement pour la défense, et les Allemands ont affecté près d’un demi-milliard à la recherche et à l’intelligence artificielle dans le cadre d’une injection financière de 100 milliards de dollars dans l’armée.
« La guerre est un catalyseur de changement », déclare Kenneth Payne, responsable de la recherche sur la défense au King’s College de Londres et auteur du livre Moi, Warbot : Le début du conflit artificiellement intelligent.
La guerre en Ukraine a rendu encore plus urgente la quête d’apporter plus d’outils d’IA sur le champ de bataille. Ceux qui ont le plus d’avantages sont des startups comme Palantir qui espèrent gagner de l’argent alors que l’armée s’efforce de mettre à jour ses arsenaux avec les dernières technologies. Mais les préoccupations éthiques de longue date concernant l’utilisation de l’IA dans la guerre sont devenues plus pressantes à mesure que la technologie devient plus avancée, tandis que la perspective de restrictions et de réglementations sur son utilisation semble plus lointaine que jamais.
La relation entre la technologie et l’armée n’a pas toujours été aussi amicale. En 2018, à la suite de protestations et de l’indignation des employés, Google s’est retiré du projet Maven du Pentagone, une tentative de construire des systèmes de reconnaissance d’images pour améliorer les frappes de drones. L’épisode a déclenché un débat houleux sur les droits de l’homme et la moralité du développement de l’IA pour les armes autonomes.
Cela a également incité les meilleurs chercheurs en IA tels que le lauréat du prix Turing Yoshua Bengio et Demis Hassabis, Shane Legg et Mustafa Suleyman, fondateurs du principal laboratoire d’IA DeepMind, à s’engager à ne pas travailler sur l’IA létale.
Mais quatre ans plus tard, la Silicon Valley est plus proche que jamais des armées mondiales. Et ce ne sont pas seulement les grandes entreprises non plus – les startups ont enfin un aperçu, déclare Yll Bajraktari, qui était auparavant directeur exécutif de la National Security Commission on AI (NSCAI) des États-Unis et travaille maintenant pour le Special Competitive Studies Project, un groupe qui fait lobbying pour une plus grande adoption de l’IA aux États-Unis.
Pourquoi l’IA
Les entreprises qui vendent de l’IA militaire font de nombreuses déclarations sur ce que leur technologie peut faire. Ils disent que cela peut aider à tout, du plus banal au plus mortel, de la vérification des CV au traitement des données des satellites ou à la détection de modèles dans les données pour aider les soldats à prendre des décisions plus rapides sur le champ de bataille. Un logiciel de reconnaissance d’images peut aider à identifier les cibles. Les drones autonomes peuvent être utilisés pour la surveillance ou les frappes terrestres, aériennes ou maritimes, ou pour aider les soldats à livrer des fournitures de manière plus sécurisée que ce qui est possible par voie terrestre.
Le message Pourquoi les affaires pour les startups d’IA militaires sont en plein essor est apparu en premier sur Germanic Nachrichten.