Algorithmen sollten Voreingenommenheit in der Strafjustiz reduzieren, aber tun sie das?

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

Algorithmen sollten das amerikanische Justizsystem erneuern. Als leidenschaftslose, computergesteuerte Berechnungen über Risiken, Kriminalität und Rückfälle propagiert, sollte ihr Einsatz in allen Bereichen, von der Polizei über die Kaution und die Verurteilung bis zur Bewährung, die oft ungleichen Entscheidungen glätten, die von fehlbaren, voreingenommenen Menschen getroffen werden.

Aber bisher war dies nicht der Fall.

„Wenn der prädiktive Algorithmus weniger voreingenommen ist als der Entscheidungsträger, sollte dies theoretisch zu weniger Inhaftierungen von Schwarzen und Indigenen und anderen politisch marginalisierten Menschen führen. Aber Algorithmen können diskriminieren“, sagt Ngozi Okidegbe, Moorman-Simon Interdisziplinäre Karriere der Universität Boston Development Associate Professor of Law und Assistenzprofessor für Informatik und Datenwissenschaften.

Sie ist die erste an der Universität, die eine doppelte Ernennung zwischen Daten und Recht innehat, und ihr Stipendium taucht in diese Schnittstelle ein und untersucht, wie sich der Einsatz von Vorhersagetechnologien in der Strafjustiz auf rassistisch ausgegrenzte Gemeinschaften auswirkt.

So wie es aussieht, werden diese Gruppen fast viermal so oft inhaftiert wie ihre weißen Altersgenossen. Entsprechend der Statistik des Justizministeriums, einem Arm des US-Justizministeriums, wurden im Jahr 2021 (dem letzten Jahr, für das Daten verfügbar sind) 1.186 schwarze Erwachsene in staatlichen oder bundesstaatlichen Einrichtungen inhaftiert, und auf 100.000 wurden 1.004 amerikanische Indianer und Ureinwohner Alaskas inhaftiert Erwachsene. Vergleichen Sie diese mit den Raten, mit denen Weiße im selben Jahr inhaftiert wurden: 222 pro 100.000.

In jüngsten Arbeiten hat Okidegbe die Rolle von Algorithmen bei diesen Ungerechtigkeiten und die miteinander verwobenen Folgen von Technologie und Recht untersucht, einschließlich der Erforschung der Daten hinter Kautionsentscheidungen.

„Ngozis gemeinsame Ernennung an der BU School of Law und an der Fakultät für Informatik und Datenwissenschaften könnte nicht aktueller sein, da sie auf die Bedeutung der Untersuchung und Prüfung der heutigen soziotechnischen und Human-in-the-Loop-KI-Systeme und -Technologien verweist. “, sagt Azer Bestavros, Associate Provost für Computer- und Datenwissenschaften. „Diese Prüfung ermöglicht es uns, nicht nur das Design und den Einsatz dieser Systeme neu zu überdenken, sondern auch die ethischen, rechtlichen und politischen Rahmenbedingungen zu überdenken, innerhalb derer diese Systeme funktionieren werden.“

Algorithmen, die Voreingenommenheit verstärken

In ihrer einfachsten Form sind Algorithmen Abkürzungen zur Problemlösung. Ingenieure können Computer darauf trainieren, große Datenmengen zu verarbeiten und dann eine einfache Lösung für ein komplexes Problem zu finden. Spotify zum Beispiel verwendet Algorithmen, um Songs vorzuschlagen, von denen das Unternehmen glaubt, dass sie ihren Zuhörern gefallen könnten, basierend auf dem, was sie zuvor gehört haben. Je mehr Daten ein Computermodell verarbeiten muss, desto differenzierter und genauer sollten seine Ergebnisse sein.

Aber eine wachsende Zahl von wissenschaftliche Forschung– einschließlich von Okidegbe – und Nachrichtenberichte zeigen, dass Algorithmen, die auf unvollständigen oder voreingenommenen Daten basieren, dies können replizieren oder sogar verstärken diese Voreingenommenheit wenn sie Ergebnisse ausspucken. Dies ist keine große Sache, wenn zum Beispiel die Peppa Pig-Besessenheit Ihres Kleinkindes in Ihre vorgeschlagenen Spotify-Wiedergabelisten eindringt, aber es kann in anderen Kontexten verheerende Auswirkungen haben.

Stellen Sie sich einen Richter vor, sagt Okidegbe, der eine algorithmisch generierte Nachricht erhält Rückfallrisiko-Score als Teil eines Berichts über einen verurteilten Kriminellen. Diese Punktzahl sagt dem Richter, wie wahrscheinlich es ist, dass diese Person in naher Zukunft eine weitere Straftat begeht – je höher die Punktzahl, desto wahrscheinlicher ist es, dass jemand ein Wiederholungstäter ist. Der Richter berücksichtigt diese Punktzahl und weist jemandem mit einer hohen Rückfallquote mehr Gefängnisstrafe zu. Fall abgeschlossen.

A weitläufiger Bericht von der gemeinnützigen Nachrichtenorganisation ProPublica fanden heraus, dass diese Bewertungen, weil sie sich unparteiisch anfühlen, bei den Richtern, die sie verwenden, viel Gewicht haben können. In Wirklichkeit sind diese Bewertungen weder unparteiisch noch stichhaltig. ProPublica stellte fest, dass ein bestimmtes System, das von Gerichten im ganzen Land verwendet wurde, bei Schwarzen etwa doppelt so oft falsch lag wie bei Weißen: Es etikettierte doppelt so viele Schwarze, die nicht rückfällig wurden, fälschlicherweise als hochgefährdet.

In einem kürzlich erschienenen Artikel für die Connecticut Law Reviewverfolgt Okidegbe diese Inkonsistenz bis zu ihrer Quelle zurück und identifiziert ein dreigliedriges „Eingabeproblem“.

Erstens, schreibt sie, sind die Gerichtsbarkeiten undurchsichtig, ob und wie sie vorgerichtliche Algorithmen verwenden, und übernehmen sie oft, ohne marginalisierte Gemeinschaften zu konsultieren, „obwohl diese Gemeinschaften unverhältnismäßig stark von ihrer Nutzung betroffen sind“. Zweitens werden dieselben Gemeinschaften im Allgemeinen vom Prozess zum Erstellen solcher Algorithmen ausgeschlossen. Schließlich ändern ihre Eingaben selbst in Gerichtsbarkeiten, in denen Mitglieder der Öffentlichkeit Meinungen zur Verwendung solcher Tools abgeben können, selten etwas.

„Aus Sicht der Rassengerechtigkeit gibt es andere Schäden, die sich aus der Verwendung dieser algorithmischen Systeme ergeben. Das Paradigma, das bestimmt, ob und wie wir diese Algorithmen verwenden, ist ziemlich technokratisch und nicht sehr vielfältig. Kate Crawford hat bemerkt, dass KI ‚weiß‘ ist Guy Problem‘“, sagt Okidegbe und bezieht sich auf einen leitenden Forscher bei Microsoft und Co-Vorsitzenden eines Symposiums im Weißen Haus über KI und Gesellschaft, der den Begriff geprägt hat, um die Überrepräsentation weißer Männer bei der Schaffung von Produkten und Unternehmen mit künstlicher Intelligenz zu beschreiben.

Von Anfang an, sagt Okidegbe, schließen algorithmische Systeme rassisch marginalisierte und andere politisch unterdrückte Gruppen aus.

„Ich habe mir die Entscheidungsgewalt darüber angesehen, ob und wie Algorithmen verwendet werden und welche Daten sie produzieren. Es ist sehr ausschließend für die marginalisierten Gemeinschaften, die am wahrscheinlichsten davon betroffen sind, weil diese Gemeinschaften sind nicht zentriert und sitzen oft nicht einmal mit am Tisch, wenn diese Entscheidungen getroffen werden“, sagt sie. „Auf diese Weise schlage ich vor, dass die Hinwendung zu Algorithmen mit einem Projekt zur Rassengerechtigkeit nicht vereinbar ist, weil sie die Marginalisierung derselben Gemeinschaften aufrechterhalten.“

Macht verschieben

Die zum Trainieren von Algorithmen verwendeten Daten können nicht nur voreingenommene Ergebnisse liefern, die marginalisierten Gemeinschaften unverhältnismäßig schaden, sondern auch chaotisch, subjektiv und diskriminierend sein, sagt Okidegbe.

„Bei meiner Arbeit habe ich mich mit einem meiner Meinung nach falschen Konzept auseinandergesetzt: dass Algorithmen nur mit quantitativen Daten erstellt werden. Das sind sie nicht, sie werden auch mit qualitativen Daten erstellt“, sagt sie. Computeringenieure und Datendesigner werden sich mit politischen Entscheidungsträgern treffen, um herauszufinden, welches Problem ihr Algorithmus lösen soll und aus welchen Datensätzen sie ihn ziehen sollten, sagt Okidegbe.

Im strafrechtlichen und juristischen Kontext könnte dies bedeuten, mit Richtern zusammenzuarbeiten, um beispielsweise festzulegen, was ihnen bei der Verhängung von Gefängnisstrafen helfen würde. Aber auch hier ist es viel unwahrscheinlicher, dass Dateningenieure beispielsweise im Rahmen ihres frühen Informationsbeschaffungsprozesses mit inhaftierten Personen zusammentreffen. Stattdessen, wie Okidegbe in einem Artikel für eine kürzlich erschienene Ausgabe der Cornell Law Review schreibt, werden die meisten großen Datensätze, die in vorgerichtlichen Algorithmen verwendet werden, auf Daten aus „Gefängnis-Wissensquellen“ wie Polizeiakten und Gerichtsdokumenten aufgebaut und trainiert.

„Das bringt diese Erzählung hervor, dass diese Gemeinschaften kein Wissen haben, das sie der umfassenderen Frage hinzufügen könnten“, sagt Okidegbe.

Um das Versprechen von Algorithmen im Strafjustizsystem wirklich einzulösen – das Versprechen, dass sie den Prozess einheitlicher und weniger voreingenommen machen, als es Menschen sonst tun –, ist ein radikales Umdenken der gesamten Struktur erforderlich, sagt Okidegbe. Sie ermutigt ihre Studenten, darüber nachzudenken, wenn sie die Zukunft des Rechts und der Strafjustiz gestalten.

„Es bedeutet, dass das Wissen von marginalisierten und politisch unterdrückten Gemeinschaften tatsächlich berücksichtigt wird und dass es darüber informiert, wie der Algorithmus aufgebaut ist. Es bedeutet auch, dass diese Gemeinschaften die algorithmischen Technologien kontinuierlich überwachen. Was ich behaupte, erfordert den Aufbau neuer institutioneller Strukturen, Es erfordert ein Umdenken darüber, wer glaubwürdig ist und wer die Macht haben sollte, wenn es um die Verwendung dieser Algorithmen geht.Und wenn das zu viel ist, dann können wir das nicht im gleichen Atemzug ein Projekt zur Rassengerechtigkeit nennen .“

Mehr Informationen:
Ngozi Okidegbe, Das demokratisierende Potenzial von Algorithmen?, Connecticut Law Review. Stipendium.law.bu.edu/faculty_scholarship/3138

Bereitgestellt von der Boston University

ph-tech