Un nouveau papier dans le Journal trimestriel d’économie constate que le remplacement de certaines fonctions décisionnelles judiciaires par des algorithmes pourrait améliorer les résultats pour les accusés en éliminant certains préjugés systémiques des juges.
Les décideurs font des choix conséquents basés sur des prédictions de résultats inconnus. Les juges, en particulier, décident d’accorder ou non une libération sous caution aux accusés ou de condamner les personnes reconnues coupables. Les entreprises utilisent désormais de plus en plus de modèles basés sur l’apprentissage automatique pour prendre des décisions à enjeux élevés.
Il existe diverses hypothèses sur le comportement humain qui sous-tendent le déploiement de tels modèles d’apprentissage, qui se reflètent dans les recommandations de produits sur Amazon, le filtrage anti-spam des e-mails et les SMS prédictifs sur son téléphone.
Les chercheurs ont développé ici un test statistique d’une de ces hypothèses comportementales, visant à savoir si les décideurs font des erreurs de prédiction systématiques, et ont développé des méthodes pour estimer la manière dont leurs prédictions sont systématiquement biaisées.
En analysant le système préalable au procès de la ville de New York, la recherche révèle qu’une partie importante des juges commettent des erreurs systématiques de prédiction du risque de mauvaise conduite avant le procès, compte tenu des caractéristiques des accusés, notamment la race, l’âge et le comportement antérieur.
La recherche a utilisé ici des informations provenant de juges de la ville de New York, qui sont assignés de manière quasi aléatoire à des affaires définies par équipe dans la salle d’audience assignée. L’étude a vérifié si les décisions de libération des juges reflètent des convictions exactes sur le risque qu’un accusé ne se présente pas au procès (entre autres choses). L’étude était basée sur des informations sur 1 460 462 cas de la ville de New York, dont 758 027 cas ont fait l’objet d’une décision de mise en liberté avant procès.
L’article a dérivé ici un test statistique pour déterminer si un décideur commet des erreurs de prédiction systématiques et a fourni des méthodes pour estimer la manière dont les prédictions du décideur sont systématiquement biaisées. En analysant les décisions de libération provisoire des juges de la ville de New York, l’article estime qu’au moins 20 % des juges commettent des erreurs systématiques de prédiction du risque de mauvaise conduite de l’accusé, compte tenu de ses caractéristiques. Motivé par cette analyse, le chercheur a ici estimé les effets du remplacement des juges par des règles de décision algorithmiques.
Le journal a constaté que les décisions d’au moins 32 % des juges de la ville de New York sont incompatibles avec la capacité réelle des accusés à verser un montant de caution spécifié et avec le risque réel qu’ils ne se présentent pas au procès.
La recherche indique ici que lorsque la race et l’âge des accusés sont pris en compte, le juge médian commet des erreurs de prédiction systématiques sur environ 30 % des accusés qui lui sont assignés. Lorsque l’on considère à la fois la race des accusés et le fait que l’accusé ait été accusé d’un crime, le juge médian commet des erreurs de prédiction systématiques sur environ 24 % des accusés qui lui sont assignés.
Alors que le document note que le remplacement des juges par une règle de décision algorithmique a des effets ambigus qui dépendent de l’objectif du décideur politique (le résultat souhaité est-il celui dans lequel davantage d’accusés se présentent au procès ou celui dans lequel moins d’accusés restent en prison en attendant leur procès ?), il Il semble que le remplacement des juges par une règle de décision algorithmique entraînerait une amélioration allant jusqu’à 20 % des résultats des procès, mesurés sur la base du taux de défaut de comparution parmi les accusés libérés et du taux de détention provisoire.
« Les effets du remplacement des décideurs humains par des algorithmes dépendent du compromis entre le fait que l’humain fasse des erreurs de prédiction systématiques basées sur les informations observables disponibles pour l’algorithme et le fait que l’humain observe des informations privées utiles », a déclaré l’auteur principal de l’article, Ashesh. Rambachan.
« Le cadre économétrique de cet article permet aux chercheurs empiriques de fournir des preuves directes de ces forces concurrentes. »
Plus d’information:
Ashesh Rambachan, Identifier les erreurs de prédiction dans les données d’observation, Journal trimestriel d’économie (2024). DOI : 10.1093/qje/qjae013. Academic.oup.com/qje/article-l … /10.1093/qje/qjae013