Die „endgültigen“ Gespräche der EU zur Festlegung der KI-Regeln laufen in den zweiten Tag – aber eine Einigung über grundlegende Modelle liegt auf dem Tisch

Während die Gesetzgeber der Europäischen Union den Takt anschlagen Über 20 Stunden Verhandlungszeit In einem Marathonversuch, eine Einigung darüber zu erzielen, wie künstliche Intelligenz reguliert werden soll, wurde laut einem durchgesickerten Vorschlag, den Tech geprüft hat, eine vorläufige Einigung über den Umgang mit einem wichtigen Element – ​​Regeln für grundlegende Modelle/Allzweck-KIs (GPAIs) – erzielt.

In den letzten Wochen gab es unter der Führung des französischen KI-Startups Mistral einen konzertierten Vorstoß für eine vollständige regulatorische Ausgliederung grundlegender Modelle/GPAIs. Aber die EU-Gesetzgeber scheinen sich dem Vollgas widersetzt zu haben, den Markt die Dinge richtig machen zu lassen, da der Vorschlag Elemente des abgestuften Ansatzes zur Regulierung dieser fortschrittlichen KIs beibehält, den das Parlament Anfang des Jahres vorgeschlagen hatte.

Allerdings gibt es eine teilweise Befreiung von einigen Verpflichtungen für GPAI-Systeme, die unter kostenlosen und Open-Source-Lizenzen bereitgestellt werden (was so festgelegt ist). deren Gewichte, Informationen zur Modellarchitektur und zur Modellnutzung öffentlich zugänglich gemacht) – mit einigen Ausnahmen, auch für „Hochrisiko“-Modelle.

Reuters hat auch über teilweise Ausnahmen für fortgeschrittene Open-Source-KIs berichtet.

Laut unserer Quelle wird die Open-Source-Ausnahme durch die kommerzielle Nutzung weiter eingeschränkt. Wenn also ein solches Open-Source-Modell auf dem Markt verfügbar gemacht oder anderweitig in Betrieb genommen wird, wäre die Ausgliederung nicht mehr gültig. „Es besteht also die Möglichkeit, dass das Gesetz auf Mistral Anwendung findet, je nachdem, wie ‚auf dem Markt verfügbar machen‘ oder ‚in Betrieb nehmen‘ interpretiert wird“, schlug unsere Quelle vor.

Die vorläufige Vereinbarung, die wir gesehen haben, behält die Klassifizierung von GPAIs mit sogenanntem „systemischem Risiko“ bei – wobei die Kriterien dafür, dass ein Modell diese Bezeichnung erhält, darin bestehen, dass es über „Fähigkeiten mit hoher Auswirkung“ verfügt, einschließlich der Messung der kumulativen Menge an Rechenleistung, die für sein Training verwendet wird bei Gleitkommaoperationen (FLOPs) ist größer als 10^25.

Auf diesem Niveau Es scheint, dass nur sehr wenige aktuelle Modelle die systemische Risikoschwelle erfüllen – was darauf hindeutet, dass nur wenige hochmoderne GPAIs Vorabverpflichtungen erfüllen müssten, um systemische Risiken proaktiv zu bewerten und zu mindern. Mistrals Lobbyarbeit scheint also den regulatorischen Schlag abgemildert zu haben.

Gemäß der vorläufigen Vereinbarung umfassen weitere Verpflichtungen für Anbieter von GPAIs mit systemischem Risiko die Durchführung einer Bewertung mit standardisierten Protokollen und modernsten Tools; schwerwiegende Vorfälle „unverzüglich“ dokumentieren und melden; Durchführung und Dokumentation kontradiktorischer Tests; Gewährleistung eines angemessenen Niveaus an Cybersicherheit; und Berichten des tatsächlichen oder geschätzten Energieverbrauchs des Modells.

An anderer Stelle gibt es einige allgemeine Verpflichtungen für Anbieter von GPAIs, einschließlich der Prüfung und Bewertung des Modells sowie der Erstellung und Aufbewahrung technischer Dokumentation, die Regulierungsbehörden und Aufsichtsbehörden auf Anfrage zur Verfügung gestellt werden müssten.

Sie müssten auch nachgeschalteten Betreibern ihrer Modelle (auch bekannt als KI-App-Hersteller) einen Überblick über die Fähigkeiten und Einschränkungen des Modells geben, um sie bei der Einhaltung des KI-Gesetzes zu unterstützen.

Der Text des Vorschlags fordert außerdem, dass grundlegende Modellbauer eine Richtlinie zur Einhaltung des EU-Urheberrechts einführen, auch im Hinblick auf Beschränkungen, die Urheberrechtsinhaber dem Text- und Data-Mining auferlegt haben. Außerdem stellen sie myst eine „ausreichend detaillierte“ Zusammenfassung der Trainingsdaten bereit, die zur Erstellung des Modells verwendet wurden, und machen es öffentlich – mit einer Vorlage für die Offenlegung, die vom AI Office bereitgestellt wird, einem KI-Governance-Gremium, dessen Einrichtung die Verordnung vorschlägt.

Wir gehen davon aus, dass diese Zusammenfassung der Urheberrechtsoffenlegung weiterhin für Open-Source-Modelle gelten würde – und zwar als eine weitere Ausnahme von deren Ausgliederung aus den Regeln.

Der Text, den wir gesehen haben, enthält einen Verweis auf Verhaltenskodizes, von denen der Vorschlag besagt, dass sich GPAIs – und GPAIs mit systemischem Risiko – zum Nachweis der Einhaltung stützen können, bis ein „harmonisierter Standard“ veröffentlicht wird.

Es ist vorgesehen, dass das KI-Büro an der Ausarbeitung solcher Kodizes beteiligt wird. Es ist vorgesehen, dass die Kommission ab sechs Monaten nach Inkrafttreten der Verordnung zu GPAIs Standardisierungsanfragen herausgibt – beispielsweise die Anforderung von Ergebnissen zur Berichterstattung und Dokumentation zu Möglichkeiten zur Verbesserung des Energie- und Ressourcenverbrauchs von KI-Systemen – und regelmäßig über die Fortschritte berichtet Die Entwicklung dieser standardisierten Elemente umfasste ebenfalls (zwei Jahre nach dem Datum der Anwendung und dann alle vier Jahre).

Der heutige Trilog zum KI-Gesetz hat gestern Nachmittag tatsächlich begonnen, aber die Europäische Kommission schien entschlossen zu sein, dass dies der letzte Streit zwischen dem Europäischen Rat, dem Parlament und seinen eigenen Mitarbeitern zu diesem umstrittenen Dossier sein wird. (Wenn nicht, besteht, wie wir bereits berichtet haben, die Gefahr, dass die Verordnung wieder auf Eis gelegt wird, da im nächsten Jahr EU-Wahlen und neue Ernennungen in der Kommission anstehen.)

Zum Zeitpunkt des Verfassens dieses Artikels sind die Gespräche zur Lösung mehrerer anderer umstrittener Elemente der Akte noch im Gange, und es sind immer noch zahlreiche äußerst heikle Themen auf dem Tisch (z. B. biometrische Überwachung für Strafverfolgungszwecke). Ob es die Datei also über die Grenze schafft, bleibt unklar.

Ohne Einigung über alle Komponenten kann es keine Einigung zur Sicherung des Gesetzes geben, sodass das Schicksal des KI-Gesetzes ungewiss bleibt. Aber für diejenigen, die wissen möchten, wo die Mitgesetzgeber gelandet sind, wenn es um die Zuständigkeiten für fortschrittliche KI-Modelle geht, wie etwa das große Sprachmodell, das dem viralen KI-Chatbot ChatGPT zugrunde liegt, bietet die vorläufige Einigung einige Orientierungshilfen dafür, wohin sich die Gesetzgeber bewegen wollen.

In den letzten Minuten hat der EU-Binnenmarktkommissar Thierry Breton getwittert, um zu bestätigen, dass die Gespräche endgültig abgebrochen wurden – allerdings nur bis morgen. Der epische Trilog soll um 9 Uhr morgens in Brüssel wieder aufgenommen werden, daher scheint die Kommission immer noch bereit zu sein, das bereits im April 2021 vorgeschlagene risikobasierte KI-Regelwerk diese Woche über die Ziellinie zu bringen. Dies hängt natürlich davon ab, Kompromisse zu finden, die für die anderen Mitgesetzgeber, den Rat und das Parlament, akzeptabel sind. Und bei solch hohen Einsätzen und einer so hochsensiblen Akte ist der Erfolg keineswegs sicher.



tch-1-tech