MIT-Forscher veröffentlichen Datenbank zu KI-Risiken

Welche konkreten Risiken sollten Personen, Unternehmen oder Regierungen bei der Nutzung von KI-Systemen oder bei der Ausarbeitung von Regeln für deren Nutzung berücksichtigen? Diese Frage ist nicht leicht zu beantworten. Wenn eine KI die Kontrolle über kritische Infrastrukturen hat, besteht ein offensichtliches Risiko für die menschliche Sicherheit. Aber was ist mit einer KI, die Prüfungen auswerten, Lebensläufe sortieren oder Reisedokumente bei der Einreisekontrolle überprüfen soll? All diese Systeme bergen ihre eigenen, grundlegend unterschiedlichen Risiken, wenn auch nicht weniger schwerwiegend.

Bei der Ausarbeitung von Gesetzen zur Regulierung der KI, wie dem EU AI Act oder Kaliforniens SB 1047, haben die politischen Entscheidungsträger Schwierigkeiten, einen Konsens darüber zu erzielen, welche Risiken die Gesetze abdecken sollen. Um ihnen sowie den Interessenvertretern der KI-Industrie und der Wissenschaft einen Leitfaden zu bieten, haben MIT-Forscher ein sogenanntes KI-„Risiko-Repository“ – eine Art Datenbank der KI-Risiken.

„Dies ist ein Versuch, KI-Risiken rigoros zu kuratieren und zu analysieren und eine öffentlich zugängliche, umfassende, erweiterbare und kategorisierte Risikodatenbank zu erstellen, die jeder kopieren und verwenden kann und die im Laufe der Zeit auf dem neuesten Stand gehalten wird“, sagte Peter Slattery, Forscher bei der FutureTech-Gruppe des MIT und Leiter des KI-Risiko-Repository-Projekts, gegenüber Tech. „Wir haben sie jetzt erstellt, weil wir sie für unser Projekt brauchten und erkannt hatten, dass viele andere sie auch brauchten.“

Laut Slattery entstand das KI-Risiko-Repository, das über 700 KI-Risiken umfasst, die nach kausalen Faktoren (z. B. Absicht), Domänen (z. B. Diskriminierung) und Unterdomänen (z. B. Desinformation und Cyberangriffe) gruppiert sind, aus dem Wunsch heraus, die Überschneidungen und Diskrepanzen in der KI-Sicherheitsforschung zu verstehen. Es gibt zwar noch andere Risikorahmen. Sie decken jedoch nur einen Bruchteil der im Repository identifizierten Risiken ab, sagt Slattery, und diese Auslassungen könnten erhebliche Folgen für die Entwicklung, Nutzung und Politikgestaltung von KI haben.

„Viele gehen vielleicht davon aus, dass es einen Konsens über KI-Risiken gibt, aber unsere Ergebnisse legen das Gegenteil nahe“, fügte Slattery hinzu. „Wir haben festgestellt, dass die durchschnittlichen Rahmenwerke nur 34 % der 23 von uns identifizierten Risikosubdomänen erwähnten und fast ein Viertel weniger als 20 % abdeckte. Kein Dokument oder Überblick erwähnte alle 23 Risikosubdomänen und das umfassendste deckte nur 70 % ab. Wenn die Literatur so fragmentiert ist, sollten wir nicht davon ausgehen, dass wir uns in Bezug auf diese Risiken alle einig sind.“

Um das Repository aufzubauen, arbeiteten die MIT-Forscher mit Kollegen der University of Queensland, dem gemeinnützigen Future of Life Institute, der KU Leuven und dem KI-Startup Harmony Intelligence zusammen, um akademische Datenbanken zu durchforsten und Tausende von Dokumenten im Zusammenhang mit KI-Risikobewertungen abzurufen.

Die Forscher stellten fest, dass die von ihnen untersuchten Frameworks von Drittanbietern bestimmte Risiken häufiger erwähnten als andere. So gingen beispielsweise über 70 Prozent der Frameworks auf die Auswirkungen von KI auf Datenschutz und Sicherheit ein, während nur 44 Prozent auf Fehlinformationen eingingen. Und während über 50 Prozent die Formen von Diskriminierung und Falschdarstellung diskutierten, die KI aufrechterhalten könnte, sprachen nur 12 Prozent über die „Verschmutzung des Informationsökosystems“ – also das zunehmende Volumen von KI-generiertem Spam.

„Eine Erkenntnis für Forscher und politische Entscheidungsträger sowie alle, die mit Risiken arbeiten, ist, dass diese Datenbank eine Grundlage für spezifischere Arbeiten bieten kann“, sagte Slattery. „Vorher hatten Leute wie wir zwei Möglichkeiten. Sie konnten viel Zeit investieren, um die verstreute Literatur zu überprüfen und einen umfassenden Überblick zu entwickeln, oder sie konnten eine begrenzte Anzahl vorhandener Rahmenwerke verwenden, bei denen möglicherweise relevante Risiken übersehen wurden. Jetzt haben sie eine umfassendere Datenbank, sodass unser Repository hoffentlich Zeit spart und die Übersicht verbessert.“

Aber wird es jemand nutzen? Es stimmt, dass die KI-Regulierung weltweit heute bestenfalls ein Sammelsurium ist: ein Spektrum unterschiedlicher Ansätze, die sich in ihren Zielen nicht einig sind. Hätte es vorher ein KI-Risiko-Repository wie das des MIT gegeben, hätte es etwas geändert? Hätte es das tun können? Das ist schwer zu sagen.

Eine weitere berechtigte Frage ist, ob einfach ausgerichtet sein auf Die Risiken, die KI birgt, reichen aus, um Bestrebungen zu einer kompetenten Regulierung anzuregen. Viele Sicherheitsbewertungen für KI-Systeme weisen erhebliche Einschränkungen auf, und eine Risikodatenbank wird dieses Problem nicht unbedingt lösen.

Die MIT-Forscher wollen es jedoch versuchen. Neil Thompson, Leiter des FutureTech-Labors, erklärte gegenüber Tech, dass die Gruppe in der nächsten Forschungsphase das Repository nutzen wolle, um zu bewerten, wie gut mit verschiedenen KI-Risiken umgegangen wird.

„Unser Archiv wird uns im nächsten Schritt unserer Forschung helfen, wenn wir bewerten, wie gut unterschiedliche Risiken angegangen werden“, sagte Thompson. „Wir planen, es zu nutzen, um Defizite in den organisatorischen Reaktionen zu identifizieren. Wenn sich beispielsweise jeder auf eine Art von Risiko konzentriert und andere von ähnlicher Bedeutung übersieht, sollten wir das bemerken und angehen.“

tch-1-tech