L’intelligence artificielle est sur le point de remodeler notre monde d’innombrables façons et dans presque tous les domaines. Cela inclut le système de justice pénale. La prise de décision basée sur des algorithmes et basée sur des données est de plus en plus utilisée dans les évaluations des risques avant le procès aux États-Unis comme outil pour calculer le risque de récidive d’un accusé. Les partisans soutiennent que cela supprime les préjugés inhérents présents dans les personnalités de la justice pénale telles que la police, les juges ou les procureurs.
Cependant, un nouvel article de Concordia Ph.D. L’étudiante et avocate de la défense Neha Chugh remet en question cette affirmation. Dans ce document, Chugh soutient que les évaluations des risques liés à l’IA, bien qu’elles ne soient pas encore utilisées dans les tribunaux canadiens, soulèvent de multiples signaux d’alarme auxquels le système judiciaire doit répondre. Elle dit que les accusés autochtones, qui sont déjà surreprésentés dans le système de justice pénale, sont particulièrement vulnérables aux lacunes de l’outil.
Ecrire dans le Magazine IEEE sur la technologie et la société, Chugh cite l’affaire historique Ewert c. Canada comme un exemple des problèmes posés par les outils d’évaluation des risques en général. Jeffrey Ewert est un Métis qui purge une peine d’emprisonnement à perpétuité pour meurtre et tentative de meurtre. Il a soutenu avec succès devant la Cour suprême du Canada que les tests utilisés par le Service correctionnel du Canada sont culturellement préjudiciables aux détenus autochtones, les gardant en prison plus longtemps et dans des conditions plus restrictives que les détenus non autochtones.
« Ewert nous dit que la prise de décision basée sur les données nécessite une analyse des informations entrantes – et des sciences sociales contribuant aux informations entrantes – et de la manière dont les préjugés affectent les informations sortantes », déclare Chugh.
« Si nous savons que la discrimination systémique afflige nos communautés et désinforme nos données policières, alors comment pouvons-nous être sûrs que les données informant ces algorithmes produiront les bons résultats ?
La subjectivité est nécessaire
Selon elle, l’utilisation de l’IA pour conduire les évaluations des risques ne ferait que transférer les biais des humains aux algorithmes créés par l’homme. De mauvaises données entrantes entraînent de mauvaises données sortantes. « Les partisans de l’utilisation de l’IA de cette manière transfèrent la responsabilité aux concepteurs de l’algorithme. »
Chugh souligne que l’utilisation de l’IA est déjà envisagée dans certains tribunaux canadiens. En tant que membre du Conseil des gouverneurs de la Commission du droit de l’Ontario, elle admet des réserves quant à la manière dont la commission a envisagé l’utilisation de l’IA pour des questions telles que les procédures judiciaires administratives ou par la police comme outils d’enquête.
L’un des principaux problèmes que Chugh identifie avec une dépendance excessive à l’IA pour les évaluations des risques et d’autres considérations est l’absence de discrétion et de déférence subjectives. Celles-ci, note-t-elle, sont les piliers essentiels d’un système judiciaire indépendant. Les lois et les statuts fournissent des paramètres à l’intérieur desquels les juges peuvent opérer et leur laissent une certaine marge de manœuvre lorsqu’ils tiennent compte de facteurs pertinents tels que les histoires et les circonstances individuelles.
« Je crois fermement aux conseils de nos tribunaux, selon lesquels la détermination de la peine et la mise en liberté sous caution sont des processus individualisés et axés sur la communauté », dit-elle.
« Nous nommons nos juges et nos décideurs en fonction de leur connaissance de la communauté. Avons-nous besoin d’externaliser cette prise de décision vers un système large et généralisé ? Ou voulons-nous nous fier à un système dans lequel nous avons des conversations individualisées avec Je préfère ce dernier parce que je crois que les tribunaux peuvent avoir un grand impact sur les individus.
Chugh insiste sur le fait qu’elle n’est pas complètement contre l’utilisation de l’IA dans le système judiciaire, seulement qu’elle pense que davantage de recherches sont nécessaires.
« Sommes-nous déjà là ? À mon avis, non. Mais si on peut prouver que j’ai tort, je serais le premier à changer d’avis.
Plus d’information:
Neha Chugh, Outils d’évaluation des risques à l’essai : AI Systems Go ?, Magazine IEEE sur la technologie et la société (2022). DOI : 10.1109/MTS.2022.3197123