Ein neuer Papier im Vierteljahresschrift für Wirtschaftswissenschaften kommt zu dem Schluss, dass das Ersetzen bestimmter richterlicher Entscheidungsfunktionen durch Algorithmen die Ergebnisse für Angeklagte verbessern könnte, indem einige der systematischen Voreingenommenheiten der Richter beseitigt werden.
Entscheidungsträger treffen folgenschwere Entscheidungen auf der Grundlage von Vorhersagen unbekannter Ergebnisse. Insbesondere Richter entscheiden darüber, ob Angeklagten Kaution gewährt wird oder wie die Verurteilten zu verurteilen sind. Unternehmen nutzen bei Entscheidungen, bei denen viel auf dem Spiel steht, zunehmend Modelle, die auf maschinellem Lernen basieren.
Dem Einsatz solcher Lernmodelle liegen unterschiedliche Annahmen über das menschliche Verhalten zugrunde, die sich bei Produktempfehlungen auf Amazon, dem Spam-Filtern von E-Mails und der Worterkennung auf Mobiltelefonen auswirken.
Die Forscher entwickelten hier einen statistischen Test für eine solche Verhaltensannahme, nämlich ob Entscheidungsträger systematische Vorhersagefehler machen. Darüber hinaus entwickelten sie Methoden zur Einschätzung, inwiefern ihre Vorhersagen systematisch verzerrt sind.
Bei der Analyse des New Yorker Vorverfahrenssystems zeigt die Studie, dass ein erheblicher Teil der Richter systematisch falsche Vorhersagen über das Risiko von Fehlverhalten im Vorverfahren macht, wenn bestimmte Merkmale des Angeklagten wie Rasse, Alter und früheres Verhalten berücksichtigt werden.
Die vorliegende Untersuchung verwendete Informationen von Richtern in New York City, die quasi zufällig nach Schicht den im jeweiligen Gerichtssaal festgelegten Fällen zugewiesen werden. Die Studie untersuchte, ob die Freilassungsentscheidungen der Richter zutreffende Annahmen über das Risiko widerspiegeln, dass ein Angeklagter (unter anderem) nicht zur Verhandlung erscheint. Die Studie basierte auf Informationen zu 1.460.462 Fällen in New York City, von denen 758.027 Fälle einer Freilassungsentscheidung vor der Verhandlung unterlagen.
Der vorliegende Artikel leitete einen statistischen Test ab, um festzustellen, ob ein Entscheidungsträger systematische Vorhersagefehler macht, und lieferte Methoden zur Einschätzung, inwiefern die Vorhersagen des Entscheidungsträgers systematisch verzerrt sind. Durch die Analyse der Entscheidungen von Richtern in New York City über die Freilassung vor dem Prozess schätzte der Artikel, dass mindestens 20 % der Richter systematische Vorhersagefehler hinsichtlich des Risikos eines Fehlverhaltens des Angeklagten machen, wenn die Eigenschaften des Angeklagten berücksichtigt werden. Motiviert durch diese Analyse schätzte der Forscher hier die Auswirkungen der Ersetzung von Richtern durch algorithmische Entscheidungsregeln ein.
Die Studie kommt zu dem Schluss, dass die Entscheidungen von mindestens 32 Prozent der Richter in New York City nicht mit der tatsächlichen Fähigkeit der Angeklagten vereinbar sind, eine bestimmte Kaution zu hinterlegen, und mit dem realen Risiko, dass sie nicht zur Verhandlung erscheinen.
Die vorliegende Untersuchung zeigt, dass der durchschnittliche Richter bei etwa 30 % der ihm zugewiesenen Angeklagten systematische Vorhersagefehler macht, wenn sowohl die Rasse des Angeklagten als auch das Alter des Angeklagten berücksichtigt werden. Wenn sowohl die Rasse des Angeklagten als auch die Frage, ob der Angeklagte eines Verbrechens angeklagt wurde, berücksichtigt werden, macht der durchschnittliche Richter bei etwa 24 % der ihm zugewiesenen Angeklagten systematische Vorhersagefehler.
Während in dem Papier darauf hingewiesen wird, dass die Ersetzung von Richtern durch eine algorithmische Entscheidungsregel mehrdeutige Auswirkungen hat, die von der Zielsetzung des politischen Entscheidungsträgers abhängen (ist das gewünschte Ergebnis, dass mehr Angeklagte zum Prozess erscheinen oder dass weniger Angeklagte im Gefängnis sitzen und auf ihren Prozess warten?), scheint es, dass die Ersetzung von Richtern durch eine algorithmische Entscheidungsregel zu einer bis zu 20 %igen Verbesserung der Prozessergebnisse führen würde, gemessen anhand der Nichterscheinensquote unter freiem Fuß und der Untersuchungshaftquote.
„Die Auswirkungen des Ersetzens menschlicher Entscheidungsträger durch Algorithmen hängen von dem Kompromiss ab, ob der Mensch auf der Grundlage beobachtbarer Informationen, die dem Algorithmus zur Verfügung stehen, systematische Vorhersagefehler macht und ob der Mensch nützliche private Informationen beobachtet“, sagte der Hauptautor der Studie, Ashesh Rambachan.
„Der ökonometrische Rahmen in diesem Papier ermöglicht es empirischen Forschern, direkte Beweise für diese konkurrierenden Kräfte zu liefern.“
Mehr Informationen:
Ashesh Rambachan, Vorhersagefehler in Beobachtungsdaten identifizieren, Vierteljahresschrift für Wirtschaftswissenschaften (2024). DOI: 10.1093/qje/qjae013. academic.oup.com/qje/article-l … /10.1093/qje/qjae013