Es sei noch zu früh, künstliche Intelligenz für die Strafjustiz einzusetzen, behauptet New Paper

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Künstliche Intelligenz ist bereit, unsere Welt auf unzählige Arten und in fast allen Bereichen neu zu gestalten. Dazu gehört auch das Strafrechtssystem. Algorithmenbasierte, datengesteuerte Entscheidungsfindung wird in den Vereinigten Staaten zunehmend in vorgerichtlichen Risikobewertungen als Instrument zur Berechnung des Rückfallrisikos eines Angeklagten eingesetzt. Befürworter argumentieren, dass dies inhärente Vorurteile beseitigt, die bei Personen der Strafjustiz wie Polizisten, Richtern oder Staatsanwälten vorhanden sind.

Ein neues Papier von Concordia Ph.D. Die Studentin und Strafverteidigerin Neha Chugh stellt diese Behauptung in Frage. Darin argumentiert Chugh, dass KI-Risikobewertungen zwar noch nicht in kanadischen Gerichten verwendet werden, aber mehrere rote Fahnen aufwerfen, mit denen sich das Justizsystem befassen muss. Sie sagt, indigene Angeklagte, die im Strafjustizsystem bereits überrepräsentiert sind, seien besonders anfällig für die Mängel des Instruments.

Schreiben im IEEE Technology and Society Magazine, verweist Chugh auf den wegweisenden Fall Ewert gegen Kanada als Beispiel für die Probleme, die Risikobewertungsinstrumente im Allgemeinen aufwerfen. Jeffrey Ewert ist ein Métis-Mann, der eine lebenslange Haftstrafe wegen Mordes und versuchten Mordes verbüßt. Er argumentierte erfolgreich vor dem Obersten Gerichtshof von Kanada, dass Tests, die von Corrections Services Canada durchgeführt werden, kulturell voreingenommen gegen indigene Insassen sind und sie länger und unter restriktiveren Bedingungen im Gefängnis halten als nicht-indigene Insassen.

„Ewert sagt uns, dass datengesteuerte Entscheidungsfindung eine Analyse der eingehenden Informationen erfordert – und der Sozialwissenschaften, die zu den eingehenden Informationen beitragen – und wie Vorurteile die herauskommenden Informationen beeinflussen“, sagt Chugh.

„Wenn wir wissen, dass systemische Diskriminierung unsere Gemeinschaften plagt und unsere Polizeidaten falsch informiert, wie können wir dann sicher sein, dass die Daten, die diese Algorithmen informieren, die richtigen Ergebnisse liefern werden?“

Subjektivität ist gefragt

Der Einsatz von KI zur Durchführung von Risikobewertungen würde, so sagt sie, einfach Vorurteile von Menschen auf von Menschen geschaffene Algorithmen übertragen. Schlechte Dateneingänge führen zu schlechten Datenausgängen. „Befürworter einer solchen Verwendung von KI verlagern die Verantwortung auf die Designer des Algorithmus.“

Chugh weist darauf hin, dass der Einsatz von KI bereits an einigen kanadischen Gerichten in Erwägung gezogen wird. Als Mitglied des Board of Governors der Law Commission of Ontario gibt sie zu, Vorbehalte darüber zu haben, wie die Kommission den Einsatz von KI für Angelegenheiten wie Verwaltungsgerichtsverfahren oder durch die Polizei als Ermittlungsinstrumente betrachtet hat.

Eines der Hauptprobleme, das Chugh mit einer übermäßigen Abhängigkeit von KI für Risikobewertungen und andere Überlegungen identifiziert, ist das Fehlen von subjektivem Ermessen und Respekt. Sie stellt fest, dass dies wichtige Säulen einer unabhängigen Justiz sind. Gesetze und Satzungen geben den Rahmen vor, innerhalb dessen Richter agieren können, und lassen ihnen einen gewissen Spielraum, während sie relevante Faktoren wie individuelle Geschichten und Umstände berücksichtigen.

„Ich glaube fest an die Leitlinien unserer Gerichte, dass Verurteilung und Kaution von der Gemeinschaft vorangetriebene, individualisierte Prozesse sind“, sagt sie.

„Wir ernennen unsere Richter und unsere Entscheidungsträger auf der Grundlage ihres Wissens über die Gemeinschaft. Müssen wir diese Entscheidungsfindung an ein breites und allgemeines System auslagern? Oder wollen wir uns auf ein System verlassen, mit dem wir individuelle Gespräche führen Ich bevorzuge letzteres, weil ich glaube, dass Gerichte einen großen Einfluss auf Einzelpersonen haben können.“

Chugh besteht darauf, dass sie nicht vollständig gegen den Einsatz von KI im Gerichtssystem ist, nur dass ihrer Meinung nach mehr Forschung erforderlich ist.

„Sind wir schon da? Meiner Meinung nach nein.

Mehr Informationen:
Neha Chugh, Tools zur Risikobewertung im Test: KI-Systeme gehen?, IEEE Technology and Society Magazine (2022). DOI: 10.1109/MTS.2022.3197123

Bereitgestellt von der Concordia University

ph-tech