Israël attaque le Hamas avec une intelligence artificielle qui ne tente pas d’empêcher la mort de civils

Israel attaque le Hamas avec une intelligence artificielle qui ne

L’intelligence artificielle a une importance de plus en plus grande dans notre vie quotidienne… et aussi dans la guerre à Gaza. Selon six responsables des renseignements israéliens, les forces armées de leur pays ont développé un système programme d’intelligence artificielle connu sous le nom de « Lavender » qui a participé directement à la guerre contre le Hamas dans l’enclave palestinienne pour générer des cibles d’assassinat. Ongle enquête Les magazines +972 Magazine et Local Call ont révélé que la machine avait eu un grande influence sur les décisions militairescomme « si c’était une décision humaine ».

Le programme « Lavande » a été conçu pour identifier tous les membres présumés des branches militaires du Hamas et du Jihad islamique palestinien, y compris les membres de bas rang, comme cibles de bombardements. Des sources ont déclaré au journaliste Yuval Abraham que, pendant les premières semaines de la guerre, l’armée dépendait presque entièrement du programme d’intelligence artificiellequi a marqué 37 000 Palestiniens comme militants présumés pour d’éventuelles frappes aériennes.

Dans les premières phases de la guerre, selon cette recherche, la précision assumée par l’intelligence artificielle brillait par son absence. Comme l’ont affirmé les responsables des renseignements israéliens, l’armée a donné son accord général aux officiers pour retirer des cibles de la liste : «sans aucune obligation de vérifier minutieusement « pourquoi la machine a fait ces choix ou a examiné les données brutes de renseignement sur lesquelles ils étaient basés. »

[Hacer la guerra por fotos: Israel usa reconocimiento facial para vigilar en masa a la población de Gaza]

L’une des sources a affirmé que le personnel humain servait souvent uniquement de pont vers les décisions de la machine, puisqu’elles ne faisaient normalement que Ils ont passé environ « 20 secondes » sur chaque cible avant d’autoriser un bombardement.. La seule variante qu’ils avaient était de savoir si la cible était un homme ou non. Le problème avec ce type de décisions, selon Abraham, est que le système a une Marge d’erreur de 10 % et il est bien connu qu’il marque parfois des personnes qui n’ont que peu ou pas de lien avec des groupes militants.

Les attaques, selon l’enquête, se sont produites la nuit et alors que les personnes marquées par « Lavande » Ils étaient chez eux et en présence de toute la famille.. En utilisant cette tactique, selon les sources, il était plus facile de localiser les personnes, puisqu’elles se trouvaient dans leurs maisons privées. Le résultat, comme l’ont attesté les agents, est que des milliers de palestiniens —principalement des femmes et des enfants ou des personnes qui n’ont pas participé aux combats— mort des attaques israéliennessurtout dans les premières semaines du combat, en raison des décisions prises par le programme d’IA.

« Nous n’avions pas envie de tuer les agents [de Hamás] uniquement lorsqu’ils se trouvaient dans un bâtiment militaire ou participaient à une activité militaire. Au contraire, Tsahal les a bombardés dans leurs maisons sans hésitation, en première option. Il est bien plus facile de bombarder une maison familiale. Le système est conçu pour les rechercher dans ces situations », a déclaré l’un des officiers des renseignements israéliens à +972 et Local Call.

Des bombes « idiotes » et jusqu’à 100 victimes collatérales

Pour mener ces attaques, les forces israéliennes Ils n’ont utilisé que des missiles non guidés, communément appelées bombes « stupides », qui peuvent détruire des bâtiments entiers et causer des pertes importantes. « Vous ne voulez pas gaspiller des bombes coûteuses sur des personnes sans importance.« Cela coûte très cher au pays et il y a une pénurie de bombes », a déclaré un autre officier aux médias israéliens.

« No es solo que puedas matar a cualquier persona que sea soldado de Hamás, lo que está claramente permitido y es legítimo en términos de derecho internacional. Sino que directamente te dicen: ‘Se te permite matarlos junto con muchos civiles’. … Dans la pratique, le critère de proportionnalité n’existait pas« , a rapporté le journal The Guardian.

[El chef José Andrés: « Israel atacó a los cooperantes de WCK sistemáticamente, coche por coche »]

Dans chacune des opérations, ont indiqué deux sources, l’armée a décidé d’établir dès le début du conflit que, pour chaque objectif de la liste ‘Lavande’, était autorisé à tuer jusqu’à 15 ou 20 civils. Dans le cas où l’objectif était un senior du Hamas, selon l’enquête, l’armée aurait même autorisé la mort de plus de 100 civils dans l’assassinat d’un seul commandant.

« Normalement, nous menions des attaques avec des bombes stupides, ce qui signifiait littéralement faire tomber la maison entière sur ses occupants. Mais même si une attaque est empêchée, cela ne vous dérange pas : vous passez immédiatement à la cible suivante. Grâce au système « , les cibles ne finissent jamais. Il y en a 36 000 autres qui attendent », ont expliqué les officiers au journal britannique.

Selon plusieurs experts en conflits consultés par The Guardian, si Israël a utilisé ce type de bombes avec l’aide de l’IA, cela signifie aiderait à expliquer le nombre élevé de morts pendant la guerre. Selon les données du ministère de la Santé du groupe palestinien Hamas, plus de 33 000 Palestiniens sont morts dans le conflit au cours des six derniers mois.

fr-02