Die britische Regierung hat in den letzten Wochen versucht, ein Image von sich selbst als internationaler Vorreiter im aufstrebenden Bereich der KI-Sicherheit zu pflegen und hat letzten Monat eine auffällige Ankündigung eines bevorstehenden Gipfels zu diesem Thema sowie eine Zusage dazu fallen lassen Geben Sie 100 Millionen Pfund für eine grundlegende Modell-Taskforce aus, die, wie es heißt, „modernste“ KI-Sicherheitsforschung betreiben wird.
Dennoch hat dieselbe Regierung unter der Führung des britischen Premierministers und Silicon-Valley-Superfans Rishi Sunak auf die Notwendigkeit verzichtet, neue inländische Gesetze zur Regulierung von KI-Anwendungen zu verabschieden – eine Haltung, die in ihrem eigenen Grundsatzpapier zum Thema „Pro-Innovation“ von Marken vertreten wird.
Außerdem befindet man sich mitten in der Verabschiedung einer deregulierenden Reform des nationalen Datenschutzrahmens, die Gefahr läuft, die KI-Sicherheit zu gefährden.
Letzteres ist eine von mehreren Schlussfolgerungen der unabhängigen Forschungsgruppe Ada Lovelace Institutein Teil der gemeinnützigen Stiftung Nuffield Foundation, in einem neuen Bericht, der den britischen Ansatz zur Regulierung von KI untersucht, was für Minister eine diplomatisch klingende, aber manchmal ziemlich unangenehme Lektüre darstellt.
Der Bericht enthält ganze 18 Empfehlungen zur Verbesserung der Regierungspolitik/Glaubwürdigkeit in diesem Bereich – also wenn das Vereinigte Königreich bei diesem Thema ernst genommen werden möchte.
Das Institut plädiert für eine „teure“ Definition der KI-Sicherheit – „die die vielfältigen Schäden widerspiegelt, die entstehen, wenn KI-Systeme leistungsfähiger und in die Gesellschaft eingebettet werden“. Der Bericht befasst sich also mit der Regulierung, „die KI-Systeme heute verursachen können“. Nennen Sie sie reale KI-Schäden. (Nicht mit Science-Fiction-inspirierten theoretischen möglichen zukünftigen Risiken, die von einigen hochkarätigen Persönlichkeiten der Technologiebranche in letzter Zeit aufgebauscht wurden, scheinbar in dem Versuch, die Aufmerksamkeit der politischen Entscheidungsträger auf sich zu ziehen.)
Im Moment kann man mit Recht sagen, dass der Ansatz der Regierung von Sunak zur Regulierung der (realen) KI-Sicherheit widersprüchlich war; Der Schwerpunkt liegt auf auffälliger, von der Industrie getragener PR, in der behauptet wird, man wolle sich für die Sicherheit einsetzen, aber es wird kaum auf politische Vorschläge zur Festlegung substanzieller Regeln zum Schutz vor dem Sammelsurium an Risiken und Schäden eingegangen, von denen wir wissen, dass sie sich aus unüberlegten Anwendungen der Automatisierung ergeben können.
Hier lässt das Ada Lovelace Institute die erste Wahrheitsbombe platzen:
Die britische Regierung hat ihr Ziel dargelegt, das Vereinigte Königreich zu einer „KI-Supermacht“ zu machen, indem sie die Entwicklung und Verbreitung von KI-Technologien zum Nutzen der britischen Gesellschaft und Wirtschaft nutzt und im Herbst 2023 einen Weltgipfel ausrichtet. Dieses Ziel wird nur mit Erfolg verwirklicht Inländische Regulierung, die die Plattform für die zukünftige KI-Wirtschaft des Vereinigten Königreichs bilden wird.
TDie umfangreiche Empfehlungsliste des Berichts macht außerdem deutlich, dass das Institut viel Raum für Verbesserungen beim aktuellen Ansatz des Vereinigten Königreichs in Bezug auf KI sieht.
Anfang des Jahres veröffentlichte die Regierung ihren bevorzugten Ansatz zur Regulierung von KI im Inland und erklärte, dass sie zum jetzigen Zeitpunkt keinen Bedarf für neue Gesetze oder Aufsichtsbehörden sehe. Stattdessen bot das Weißbuch eine Reihe flexibler Grundsätze, die die Regierung den bestehenden, sektorspezifischen (und/oder bereichsübergreifenden) Regulierungsbehörden vorschlug, diese „KI im Rahmen ihrer Zuständigkeiten zu interpretieren und anzuwenden“. Nur ohne neue rechtliche Befugnisse oder zusätzliche Mittel, um auch neuartige Einsatzmöglichkeiten von KI zu überwachen.
Die fünf im Weißbuch dargelegten Prinzipien sind: Sicherheit und Robustheit; Angemessene Transparenz und Erklärbarkeit; Gerechtigkeit; Rechenschaftspflicht und Governance; Anfechtbarkeit und Wiedergutmachung. Auf dem Papier klingt das alles gut – aber Papier allein reicht bei der Regulierung der KI-Sicherheit offensichtlich nicht aus.
Der Plan des Vereinigten Königreichs, den bestehenden Regulierungsbehörden die Entscheidung zu überlassen, was mit der KI zu tun ist, und dabei nur einige grobe Grundsätze anzustreben und keine neuen Ressourcen bereitzustellen, steht im Gegensatz zu dem Plan der EU, wo die Gesetzgeber damit beschäftigt sind, eine Einigung über einen risikobasierten Rahmen zu erzielen, den der Block anstrebt Die Exekutive wurde bereits 2021 vorgeschlagen.
Der knappe Haushaltsansatz des Vereinigten Königreichs, bestehende, überlastete Regulierungsbehörden mit neuen Verantwortlichkeiten für die Überwachung der KI-Entwicklungen in ihrem Zuständigkeitsbereich zu belasten, ohne die Befugnis zu haben, Ergebnisse gegenüber böswilligen Akteuren durchzusetzen, erscheint gelinde gesagt nicht sehr glaubwürdig in Bezug auf die KI-Sicherheit.
Es scheint auch nicht einmal eine kohärente Strategie zu sein, wenn man Innovationen befürworten will – denn sie erfordert, dass KI-Entwickler einen ganzen Flickenteppich sektorspezifischer und bereichsübergreifender Gesetze berücksichtigen, die lange vor dem jüngsten KI-Boom ausgearbeitet wurden. Entwickler unterliegen möglicherweise auch der Aufsicht verschiedener Regulierungsbehörden (wie schwach ihre Aufmerksamkeit auch sein mag, da es an Ressourcen und rechtlicher Schlagkraft zur Durchsetzung der oben genannten Grundsätze mangelt). Es sieht also wirklich wie ein Rezept aus Unsicherheit darüber, welche bestehenden Regeln für KI-Apps gelten könnten. (Und höchstwahrscheinlich ein Flickenteppich regulatorischer Interpretationen, je nach Sektor, Anwendungsfall und beteiligten Aufsichtsbehörden usw. Ergo: Verwirrung und Kosten, nicht Klarheit.)
Selbst wenn die bestehenden britischen Regulierungsbehörden schnell Leitlinien für den Umgang mit KI vorlegen – wie einige es bereits tun oder daran arbeiten –, wird es immer noch zahlreiche Lücken geben, wie der Bericht des Ada Lovelace Institute ebenfalls hervorhebt – da Abdeckungslücken ein Merkmal von sind die bestehende Regulierungslandschaft des Vereinigten Königreichs. Der Vorschlag, diesen Ansatz einfach weiter auszudehnen, impliziert also, dass sich regulatorische Inkonsistenzen festsetzen und sogar verstärken, da der Einsatz von KI in allen Sektoren zunimmt/explodiert.
Hier noch einmal das Institut:
Große Teile der britischen Wirtschaft sind derzeit nicht oder nur teilweise reguliert. Es ist unklar, wer für die Umsetzung der KI-Grundsätze in diesen Kontexten verantwortlich wäre, darunter: sensible Praktiken wie Einstellung und Beschäftigung, die selbst in regulierten Sektoren nicht umfassend von den Regulierungsbehörden überwacht werden; Dienstleistungen des öffentlichen Sektors wie Bildung und Polizei, die von einem ungleichen Netzwerk von Regulierungsbehörden überwacht und durchgesetzt werden; Tätigkeiten zentraler Regierungsstellen, die oft nicht direkt reguliert sind, wie etwa die Verwaltung von Sozialleistungen oder die Aufdeckung von Steuerbetrug; unregulierte Teile des privaten Sektors, wie etwa der Einzelhandel.
„KI wird in jedem Sektor eingesetzt und genutzt, aber das diffuse rechtliche und regulatorische Netzwerk für KI im Vereinigten Königreich weist derzeit erhebliche Lücken auf. Es bedarf klarerer Rechte und neuer Institutionen, um sicherzustellen, dass die Schutzmaßnahmen auf die gesamte Wirtschaft ausgedehnt werden“, heißt es außerdem.
Ein weiterer wachsender Widerspruch zur behaupteten Position der Regierung als „KI-Führer“ besteht darin, dass ihr Bestreben, das Land zu einem globalen KI-Sicherheitszentrum zu machen, direkt durch interne Bemühungen untergraben wird, den inländischen Schutz für die Daten der Menschen abzuschwächen – etwa durch eine Senkung des Schutzes, wenn Sie unterliegen automatisierten Entscheidungen mit erheblichen und/oder rechtlichen Auswirkungen – über das deregulierende Gesetz zum Datenschutz und zur digitalen Information (Nr. 2).
Während die Regierung bisher die aufsehenerregendsten Vorschläge der Brexit-Befürworter zur Aufspaltung des von der EU abgeleiteten Datenschutzregelwerks – wie beispielsweise die einfache Streichung des gesamten Artikels 22 (der sich mit dem Schutz automatisierter Entscheidungen befasst) aus der Allgemeinen Datenschutzverordnung des Vereinigten Königreichs – vermieden hat, ist sie es Dennoch treibt das Unternehmen trotz seines neuen Ziels, das Vereinigte Königreich zu einem globalen KI-Sicherheitszentrum zu machen, einen Plan voran, um das Schutzniveau, das Bürger nach geltendem Datenschutzrecht genießen, auf verschiedene Weise zu verringern.
„Die britische DSGVO – der derzeit im Vereinigten Königreich geltende Rechtsrahmen für den Datenschutz – bietet Schutzmaßnahmen, die für den Schutz von Einzelpersonen und Gemeinschaften vor potenziellen Schäden durch KI unerlässlich sind. Der Gesetzentwurf zum Datenschutz und zu digitalen Informationen (Nr. 2), der in seiner aktuellen Form im März 2023 vorgelegt wurde, ändert diese Schutzmaßnahmen erheblich“, warnt das Institut und verweist beispielsweise darauf, dass der Gesetzentwurf ein Verbot für viele Arten automatisierter Entscheidungen aufhebt – und stattdessen Von den für die Datenverarbeitung Verantwortlichen zu verlangen, dass sie „Sicherheitsvorkehrungen getroffen haben, wie zum Beispiel Maßnahmen, die es einer Person ermöglichen, die Entscheidung anzufechten“ – was ihrer Meinung nach in der Praxis ein niedrigeres Schutzniveau darstellt.
„Da sich der von der Regierung vorgeschlagene Rahmen auf bestehende Gesetze und Regulierungsbehörden stützt, ist es umso wichtiger, dass zugrunde liegende Vorschriften wie der Datenschutz die KI angemessen regeln“, heißt es weiter. „Eine vom Ada Lovelace Institute in Auftrag gegebene Rechtsberatung … legt nahe, dass die bestehenden Sicherheitsvorkehrungen für die automatisierte Verarbeitung in der Praxis möglicherweise keinen ausreichenden Schutz für Personen bieten, die mit alltäglichen Dienstleistungen wie der Beantragung eines Kredits interagieren.“
„Insgesamt besteht die Gefahr, dass die Änderungen des Gesetzentwurfs die Regulierungsvorschläge der Regierung für KI weiter untergraben“, fügt der Bericht hinzu.
Die erste Empfehlung des Instituts lautet daher, dass die Regierung rDenken Sie an Elemente des Datenschutzreformgesetzes, die „wahrscheinlich die sichere Entwicklung, den Einsatz und die sichere Nutzung von KI untergraben, wie etwa Änderungen am Rechenschaftsrahmen“. Sie empfiehlt der Regierung außerdem, ihre Überprüfung auszuweiten und sich mit den bestehenden Rechten und Schutzmaßnahmen im britischen Recht zu befassen – mit dem Ziel, etwaige andere Gesetzeslücken zu schließen und neue Rechte und Schutzmaßnahmen für Menschen einzuführenWir sind bei Bedarf von KI-gestützten Entscheidungen betroffen.
Zu den weiteren Empfehlungen im Bericht gehört die Einführung einer gesetzlichen Verpflichtung für die Regulierungsbehörden, die oben genannten Grundsätze zu berücksichtigen, einschließlich „strikter Transparenz- und Rechenschaftspflichten“, und die Bereitstellung von mehr Finanzmitteln/Ressourcen für die Bekämpfung von KI-bedingten Schäden; Prüfung der Einführung eines gemeinsamen Satzes von Befugnissen für Regulierungsbehörden, einschließlich einer ex ante, entwicklerorientierte Regulierungsfähigkeit; und dass die Regierung prüfen sollte, ob eine KI-Ombudsperson eingerichtet werden sollte, um Menschen zu unterstützen, die von KI negativ betroffen sind.
Das Institut empfiehlt der Regierung außerdem, die Gesetze rund um KI und Haftung zu klären – ein weiterer Bereich, in dem die EU bereits einen großen Vorsprung hat.
In Bezug auf die grundlegende Modellsicherheit – ein Bereich, der in letzter Zeit dank der viralen Begeisterung für generative KI-Tools wie ChatGPT von OpenAI bei der britischen Regierung besonderes Interesse und Aufmerksamkeit erregt hat – glaubt das Institut auch, dass die Regierung noch weiter gehen muss, und empfiehlt in Großbritannien ansässigen Entwicklern von Grundlegende Modelle sollten verbindliche Berichtspflichten erhalten, um es den Regulierungsbehörden zu erleichtern, den Überblick über eine sich sehr schnell entwickelnde Technologie zu behalten.
Es wird sogar vorgeschlagen, dass führende Entwickler grundlegender Modelle wie OpenAI, Google DeepMind und Anthropic dazu verpflichtet werden sollten, die Regierung zu benachrichtigen, wenn sie (oder Unterauftragsverarbeiter, mit denen sie zusammenarbeiten) mit groß angelegten Trainingsläufen neuer Modelle beginnen.
„Dies würde der Regierung eine frühzeitige Warnung vor Fortschritten bei den KI-Fähigkeiten bieten und es politischen Entscheidungsträgern und Regulierungsbehörden ermöglichen, sich auf die Auswirkungen dieser Entwicklungen vorzubereiten, anstatt unvorbereitet zu bleiben“, schlägt es vor und fügt hinzu, dass die Meldepflichten auch Informationen wie den Zugang zu umfassen sollten die zum Trainieren von Modellen verwendeten Daten; Ergebnisse interner Audits; und Lieferkettendaten.
Ein weiterer Vorschlag besteht darin, dass die Regierung in kleine Pilotprojekte investiert, um ihr eigenes Verständnis für Trends in der KI-Forschung und -Entwicklung zu stärken.
Michael Birtwistle, stellvertretender Direktor des Ada Lovelace Institute, kommentierte die Ergebnisse des Berichts in einer Erklärung wie folgt:
Die Regierung erkennt zu Recht an, dass das Vereinigte Königreich eine einzigartige Chance hat, weltweit führend in der KI-Regulierung zu sein, und der Premierminister sollte für seine weltweite Führungsrolle in dieser Frage gelobt werden. Die Glaubwürdigkeit des Vereinigten Königreichs bei der KI-Regulierung beruht jedoch auf der Fähigkeit der Regierung, im eigenen Land ein weltweit führendes Regulierungssystem zu schaffen. Bemühungen um eine internationale Koordinierung sind sehr zu begrüßen, reichen aber nicht aus. Die Regierung muss ihre inländischen Regulierungsvorschläge verstärken, wenn sie in Sachen KI ernst genommen werden und ihre globalen Ambitionen erreichen will.