von Kevin Walby, Gustavo da Costa Markowicz und Oluwasola Mary Adedayo, Das Gespräch
Künstliche Intelligenz (KI) ist ein mächtiges Werkzeug. In den Händen der öffentlichen Polizei und anderer Strafverfolgungsbehörden kann KI zu Ungerechtigkeit führen. Ein Beispiel: Der Einwohner von Detroit Robert Williams wurde vor den Augen seiner Kinder verhaftet und nach einem falsch positiven Befund eine Nacht lang in Gewahrsam gehalten. in einem KI-Gesichtserkennungssystem. Williams‘ Name war jahrelang im System gespeichert und er musste die Polizei und die lokale Regierung wegen unrechtmäßiger Verhaftung verklagen, um ihn entfernen zu lassen. Schließlich fand er heraus, dass eine fehlerhafte KI ihn als Verdächtigen identifiziert hatte.
Um die Ecke passierte einem anderen Detroiter das Gleiche. Michael Oliverund in New Jersey, um Nijeer ParksDiese drei Männer haben zwei Dinge gemeinsam. Erstens sind sie alle Opfer von Fehlalarmen in KI-Gesichtserkennungssystemen. Und zweitens sind sie alle schwarze Männer.
Es stellt sich heraus: KI-Gesichtserkennungssysteme können die meisten Menschen mit dunkler Hautfarbe nicht unterscheiden. Einer Studie zufolge Die Fehlerquote ist bei schwarzen Frauen mit 35 % am höchsten.
Diese Beispiele verdeutlichen die kritischen Probleme, die mit dem Einsatz von KI in Polizei- und Justizwesen verbunden sind, insbesondere in der heutigen Zeit, in der KI im Strafrechtssystem sowie im öffentlichen und privaten Sektor stärker eingesetzt wird als je zuvor.
In Kanada: Neue Gesetze, alte Probleme
Derzeit werden in Kanada zwei neue Gesetze mit erheblichen Auswirkungen auf den Einsatz von KI in den kommenden Jahren erwogen. Beide sehen keinen ausreichenden Schutz für die Öffentlichkeit vor, wenn es um den Einsatz von KI durch die Polizei geht. Als Wissenschaftler, die sich mit Informatik, Polizeiarbeit und Recht beschäftigen, sind wir über diese Lücken besorgt.
In Ontario, Gesetzentwurf 194oder das Gesetz zur Stärkung der Cybersicherheit und zum Aufbau von Vertrauen im öffentlichen Sektor, konzentriert sich auf den Einsatz von KI im öffentlichen Sektor.
Die föderale Gesetzentwurf C-27 würde den Artificial Intelligence and Data Act (AIDA) verabschieden. Obwohl der Schwerpunkt von AIDA auf dem privaten Sektor liegt, hat es aufgrund der hohen Anzahl öffentlich-privater Partnerschaften in der Regierung Auswirkungen auf den öffentlichen Sektor.
Die öffentliche Polizei nutzt KI als Eigentümer und Betreiber von KI. Sie kann auch eine private Agentur als Stellvertreter beauftragen, KI-gesteuerte Analysen durchzuführen.
Aufgrund dieser öffentlichen Nutzung von KI im privaten Sektor sollten selbst Gesetze, die die Nutzung von KI im privaten Sektor regeln sollen, Einsatzregeln für Strafverfolgungsbehörden vorsehen, die diese Technologie nutzen.
Racial Profiling und KI
KI verfügt über leistungsstarke Vorhersagefähigkeiten. Mithilfe von maschinellem Lernen kann KI mit einer Datenbank von Profilen gefüttert werden, um die Wahrscheinlichkeit zu „bestimmen“, wer was tun könnte, oder um Gesichter mit Profilen abzugleichen. KI könnte auch anhand von Daten über frühere Kriminalität bestimmen, wohin Polizeistreifen geschickt werden sollen.
Diese Techniken klingen, als könnten sie die Effizienz steigern oder Voreingenommenheit reduzieren. Der Einsatz von KI durch die Polizei kann jedoch zu mehr Racial Profiling und unnötigen Polizeieinsätzen führen.
Bürgerrechts- und Datenschutzgruppen haben Berichte über KI verfasst und ÜberwachungspraktikenSie liefern Beispiele für rassistische Vorurteile aus Orte, an denen die Polizei KI-Technologie einsetzt. Und sie weisen auf die vielen unrechtmäßigen Festnahmen hin.
In Kanada wurden die Royal Canadian Mounted Police (RCMP) und andere Polizeibehörden, darunter der Toronto Police Service und die Ontario Provincial Police, bereits vom Büro des kanadischen Datenschutzbeauftragten für die Nutzung des Clearview KI-Technologie durchführen Massenüberwachung.
Clearview AI verfügt über eine Datenbank mit über drei Milliarden Bildern, die ohne Zustimmung durch das Scraping des Internets gesammelt wurden. Clearview AI vergleicht Gesichter aus der Datenbank mit anderem Filmmaterial. Dies verstößt gegen kanadische Datenschutzgesetze. Das Büro des Datenschutzbeauftragten von Kanada hat den Einsatz dieser Technologie durch die RCMP kritisiert Und Die Polizei von Toronto hat die Verwendung dieses Produkts ausgesetzt.
Indem die Regulierung der Strafverfolgung in den Gesetzentwürfen 194 und C-27 außen vor bleibt, könnten KI-Unternehmen in Kanada eine ähnliche Massenüberwachung ermöglichen.
Die EU geht voran
Auf internationaler Ebene wurden Fortschritte bei der Regulierung des KI-Einsatzes im öffentlichen Sektor erzielt.
Bis jetzt, das KI-Gesetz der Europäischen Union ist das beste Gesetz der Welt, wenn es um den Schutz der Privatsphäre und der bürgerlichen Freiheiten seiner Bürger geht.
Das KI-Gesetz der EU verfolgt bei der Regulierung von KI einen risiko- und schadensbasierten Ansatz und erwartet, dass KI-Benutzer konkrete Schritte unternehmen müssen, um persönliche Informationen zu schützen und Massenüberwachung zu verhindern.
Im Gegensatz dazu stellen sowohl die kanadische als auch die US-amerikanische Gesetzgebung das Recht der Bürger, nicht von Massenüberwachung erfasst zu werden, dem Wunsch der Unternehmen nach Effizienz und Wettbewerbsfähigkeit gegenüber.
Noch Zeit für Änderungen
Es ist noch Zeit, Änderungen vorzunehmen. Der Gesetzentwurf 194 wird derzeit in der gesetzgebenden Versammlung von Ontario debattiert. Und der Gesetzentwurf C-27 wird im kanadischen Parlament debattiert.
Dass Polizei und Strafverfolgungsbehörden aus den Gesetzentwürfen 194 und C-27 ausgeschlossen wurden, ist ein eklatantes Versäumnis. Es könnte das Ansehen der Justiz in Kanada gefährden.
Die Rechtskommission von Ontario hat Gesetzentwurf 194 kritisiert. Sie sagen, dass das vorgeschlagene Gesetz weder Menschenrechte noch Privatsphäre fördert und den ungehinderten Einsatz von KI auf eine Weise erlauben würde, die die Privatsphäre der Kanadier verletzen könnte. Sie sagen, dass Gesetzentwurf 194 es öffentlichen Stellen erlauben würde, KI im Geheimen zu verwenden, und argumentieren, dass Gesetzentwurf 194 den Einsatz von KI durch Polizei, Gefängnisse, Gerichte und andere Strafverfolgungsbehörden ignoriert.
In Bezug auf den Gesetzentwurf C-27 hat die Canadian Civil Liberties Association (CCLA) ein warnender Hinweis und hat beantragt, den Gesetzentwurf zurückzuziehen. Ihrer Meinung nach sind die Regulierungsmaßnahmen in Gesetzentwurf C-27 eher auf die Steigerung der Produktivität und des Data Mining im privaten Sektor ausgerichtet als auf den Schutz der Privatsphäre und Bürgerrechte der kanadischen Bürger.
Angesichts der Tatsache, dass Polizei und nationale Sicherheitsbehörden bei Überwachungs- und Geheimdienstaktivitäten häufig mit privaten Anbietern zusammenarbeiten, sind Vorschriften für solche Partnerschaften erforderlich. Aber Polizei und nationale Sicherheitsbehörden werden im Gesetzentwurf C-27 nicht erwähnt.
Die CCLA empfiehlt, den Gesetzentwurf C-27 mit dem KI-Gesetz der Europäischen Union in Einklang zu bringen und darin Leitplanken aufzunehmen, die eine Massenüberwachung verhindern und vor dem Missbrauch der Macht der KI schützen.
Dies werden Kanadas erste KI-Gesetze sein. Wir sind Jahre hinter den Regulierungen zurück, die notwendig sind, um den Missbrauch der KI-Nutzung im öffentlichen und privaten Sektor zu verhindern.
In einer Zeit, in der die Nutzung künstlicher Intelligenz durch die Strafverfolgungsbehörden zunimmt, müssen zum Schutz der kanadischen Bürger jetzt Änderungen an den Gesetzentwürfen 194 und C-27 vorgenommen werden.
Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.