Die von den EU-Gesetzgebern am späten Freitag erzielte politische Einigung über das, was die Union als weltweit erstes umfassendes Gesetz zur Regulierung künstlicher Intelligenz anstrebt, sieht die Befugnis für die Kommission vor, das EU-weite KI-Regelwerk anzupassen, um mit den Entwicklungen auf diesem Gebiet Schritt zu halten hat bestätigt.
Die Wahl des Begriffs durch den Gesetzgeber zur Regulierung der leistungsstärksten Modelle hinter dem aktuellen Boom generativer KI-Tools – die im EU-Gesetz als „allgemeine“ KI-Modelle und -Systeme bezeichnet werden, anstatt Branchenbegriffe wie „grundlegend“ oder „grundlegend“ zu verwenden. „Frontier“-Modelle – wurde laut Kommission auch im Hinblick auf die Zukunftssicherheit des kommenden Gesetzes ausgewählt, wobei die Mitgesetzgeber einen allgemeinen Begriff bevorzugten, um eine Klassifizierung zu vermeiden, die an die Verwendung einer bestimmten Technologie (z. B. transformatorbasiertes maschinelles Lernen) gekettet werden könnte.
„In Zukunft werden wir möglicherweise unterschiedliche technische Ansätze haben. Deshalb suchten wir nach einem allgemeineren Begriff“, schlug heute ein Kommissionsbeamter vor. „Foundation-Modelle gehören natürlich zu den Allzweck-KI-Modellen. Dabei handelt es sich um Modelle, die für die unterschiedlichsten Aufgabenstellungen eingesetzt werden können und auch in Systeme integrierbar sind. Um Ihnen ein konkretes Beispiel zu geben: Das Allzweck-KI-Modell wäre GPT-4 und das Allzweck-KI-System wäre ChatGPT – wobei GPT-4 in ChatGPT integriert ist.“
Wie wir bereits berichteten, umfasst die von den Mitgesetzgebern des Blocks vereinbarte Vereinbarung eine Stufe mit niedrigem Risiko und eine Stufe mit hohem Risiko für die Regulierung sogenannter Allzweck-KIs (GPAIs) – etwa Modelle hinter dem viralen Boom generativer KI-Tools wie ChatGPT von OpenAI . Der Auslöser für die Anwendung von Hochrisikoregeln für generative KI-Technologien wird durch einen im Gesetz festgelegten Anfangsschwellenwert bestimmt.
Wie wir am Donnerstag ebenfalls berichteten, bezieht sich der vereinbarte Entwurf des EU-KI-Gesetzes auf die Menge an Rechenleistung, die zum Trainieren der Modelle verwendet wird, auch Gleitkommaoperationen (oder FLOPs) genannt – und legt damit die Messlatte dafür fest, dass ein GPAI als „leistungsstark“ angesehen werden kann. bei 10^25 FLOPs.
Bei einem technischen Briefing heute mit Journalisten zur Überprüfung der politischen Vereinbarung bestätigte die Kommission jedoch, dass es sich lediglich um einen „anfänglichen Schwellenwert“ handele, und bekräftigte, dass sie befugt sein werde, den Schwellenwert im Laufe der Zeit durch Durchführungs-/Delegationsrechtsakte (dh Sekundärgesetzgebung) zu aktualisieren. Außerdem hieß es, die Idee bestehe darin, den FLOP-Schwellenwert im Laufe der Zeit mit „anderen Benchmarks“ zu kombinieren, die von einem neuen Expertenaufsichtsgremium namens AI Office entwickelt werden, das innerhalb der Kommission eingerichtet werden soll.
Warum wurden 25 FLOPs als Hochrisikoschwelle für GPAIs ausgewählt? Die Kommission geht davon aus, dass die Zahl mit der Absicht ausgewählt wurde, aktuelle Gen-Frontier-Modelle zu erfassen. Es wurde jedoch behauptet, dass der Gesetzgeber während der Marathon-Triloge, um sich auf die endgültige Form des Regelwerks zu einigen, weder diskutiert noch darüber nachgedacht habe, ob es auf derzeit im Spiel befindliche Modelle wie GPT-4 von OpenAI oder Gemini von Google Anwendung finden würde.
Ein Beamter der Kommission fügte hinzu, dass es in jedem Fall Sache der Hersteller von GPAIs sei, selbst zu beurteilen, ob ihre Modelle den FLOPs-Schwellenwert erfüllen und daher unter die Regeln für GPAIs „mit systemischem Risiko“ fallen oder nicht.
„Es gibt keine offiziellen Quellen, die sagen würden, dass ChatGPT oder Gemini oder chinesische Models auf diesem FLOP-Niveau sind“, sagte der Beamte während der Pressekonferenz. „Auf der Grundlage der Informationen, die wir haben, und mit dieser 10^25, die wir gewählt haben, haben wir eine Zahl gewählt, die die Grenzmodelle, die wir haben, wirklich ein wenig abbilden könnte. Ob es sich hierbei um die Erfassung von GPT-4 oder Gemini oder anderen handelt, können wir hier nicht beurteilen – denn in unserem Rahmen wären es auch die Unternehmen, die selbst einschätzen müssten, wie viele FLOPs oder welche Rechenkapazität sie genutzt haben . Aber wenn man die wissenschaftliche Literatur liest, werden viele natürlich darauf hinweisen, dass es sich bei diesen Zahlen derzeit um die am weitesten fortgeschrittenen Modelle handelt. Wir werden sehen, was die Unternehmen beurteilen werden, denn sie sind für diese Einschätzung am besten geeignet.“
„Die Regeln wurden nicht unter Berücksichtigung bestimmter Unternehmen verfasst“, fügten sie hinzu. „Sie wurden wirklich mit der Idee geschrieben, den Schwellenwert zu definieren – der sich übrigens ändern kann, weil wir die Möglichkeit haben, diesen Schwellenwert auf der Grundlage der technologischen Entwicklung zu ändern. Es könnte steigen, es könnte fallen und wir könnten auch andere Benchmarks entwickeln, die in Zukunft besser geeignet sein werden, die verschiedenen Momente zu vergleichen.“
GPAIs, die in die Hochrisikostufe des AI Act fallen, müssen vorab regulatorische Anforderungen zur Bewertung und Minderung systemischer Risiken erfüllen. Das bedeutet, dass sie Modellergebnisse proaktiv testen müssen, um das Risiko tatsächlicher (oder „vernünftigerweise vorhersehbarer“) negativer Auswirkungen auf die öffentliche Gesundheit zu verringern. Sicherheit, öffentliche Sicherheit, Grundrechte oder für die Gesellschaft als Ganzes.
Für „niedrigstufige“ GPAIs hingegen gelten nur geringere Transparenzanforderungen, einschließlich der Verpflichtung, Wasserzeichen auf generative KI-Ausgaben anzuwenden.
Die Wasserzeichenpflicht für GPAIs fällt in einen Artikel, der in der ursprünglichen Kommissionsversion des bereits im April 2021 vorgestellten risikobasierten Rahmenwerks enthalten war und sich auf Transparenzanforderungen für Technologien wie KI-Chatbots und Deepfakes konzentrierte – was jetzt aber der Fall sein wird gelten allgemein auch für Allzweck-KI-Systeme.
„Es besteht die Verpflichtung, Wasserzeichen anzubringen [generative AI-produced] „Wir werden den Text auf der Grundlage des neuesten Stands der verfügbaren Technologie erstellen“, sagte der Kommissionsbeamte und konkretisierte die Einzelheiten der vereinbarten Wasserzeichenpflichten. „Derzeit sind Technologien viel besser darin, Videos und Audio mit Wasserzeichen zu versehen als Text. Was wir jedoch verlangen, ist die Tatsache, dass diese Wasserzeichen auf der Grundlage modernster Technologie erfolgen – und dann erwarten wir natürlich, dass die Technologie mit der Zeit ausgereift und so sein wird [good] wie möglich.“
Hersteller von GPAI-Modellen müssen sich außerdem dazu verpflichten, die EU-Urheberrechtsvorschriften zu respektieren, einschließlich der Einhaltung einer bestehenden maschinenlesbaren Ausnahmeregelung für Text- und Data-Mining, die in der EU-Urheberrechtsrichtlinie enthalten ist – und eine Ausnahme von den Transparenzanforderungen des Gesetzes für Open-Source-GPAIs tut dies auch nicht Die Maßnahmen gehen bis zur Befreiung von den Urheberrechtsverpflichtungen, wobei die Kommission bestätigt, dass die Urheberrechtsrichtlinie weiterhin für Open-Source-GPAIs gelten wird.
Was das AI-Büro betrifft, das eine Schlüsselrolle bei der Festlegung von Risikoklassifizierungsschwellenwerten für GPAIs spielen wird, bestätigte die Kommission, dass noch kein Budget und keine Personalzahl für das Expertengremium festgelegt sind. (Allerdings deutete Thierry Breton, Kommissar für den Binnenmarkt der Union, in den frühen Morgenstunden des Samstags an, dass die EU „viele“ neue Kollegen willkommen heißen werde, während sie dieses Allzweck-KI-Aufsichtsgremium aufbaut.)
Auf die Frage nach der Bereitstellung von Mitteln für das KI-Büro sagte ein Beamter der Kommission, darüber werde in Zukunft von der EU-Exekutive entschieden, die „eine angemessene und offizielle Entscheidung“ trifft. „Die Idee ist, dass wir eine eigene Haushaltslinie für das Büro einrichten können und dass wir bei Bedarf zusätzlich zu den Vertragsbediensteten und dem ständigen Personal auch nationale Experten aus den Mitgliedstaaten einstellen können. Und einige dieser Mitarbeiter werden auch innerhalb der Europäischen Kommission eingesetzt“, fügten sie hinzu.
Das KI-Büro wird mit einem neuen wissenschaftlichen Beratungsgremium zusammenarbeiten, das das Gesetz ebenfalls einrichten wird, um dem Gremium dabei zu helfen, die Fähigkeiten fortschrittlicher KI-Modelle zum Zwecke der Regulierung systemischer Risiken besser zu verstehen. „Wir haben festgestellt, dass die Einrichtung eines wissenschaftlichen Gremiums eine wichtige Rolle spielt, wobei das wissenschaftliche Gremium dem Büro für künstliche Intelligenz wirksam dabei helfen kann, zu verstehen, ob es neue Risiken gibt, die noch nicht identifiziert wurden“, bemerkte der Beamte. „Und zum Beispiel auch einige Warnungen zu Modellen kennzeichnen, die nicht vom FLOP-Schwellenwert erfasst werden und aus bestimmten Gründen tatsächlich erhebliche Risiken mit sich bringen könnten, die Regierungen berücksichtigen sollten.“
Obwohl es noch keinen endgültigen Text gibt, scheint die EU-Exekutive daran interessiert zu sein, sicherzustellen, dass wichtige Details des kommenden Gesetzes veröffentlicht werden – weil sie daran arbeitet, das zu konsolidieren, was die Mitgesetzgeber während der 38-stündigen Marathon-Gespräche, die am Freitagabend endeten, vereinbart haben ist die nächste Aufgabe, vor der der Block in den kommenden Wochen steht – in diesem Detail könnten noch einige Teufel lauern. Es wird sich also lohnen, den voraussichtlich im Januar oder Februar erscheinenden Text genau unter die Lupe zu nehmen.
Auch wenn die vollständige Regulierung erst in ein paar Jahren in Kraft treten wird, wird die EU darüber hinaus darauf drängen, dass GPAIs sich in der Zwischenzeit an die Verhaltenskodizes halten – sodass die KI-Giganten unter dem Druck stehen werden, sich möglichst genau an die kommenden strengen Vorschriften zu halten über den KI-Pakt des Blocks so weit wie möglich auf die lange Bank schieben.
Das EU-KI-Gesetz selbst wird wahrscheinlich erst irgendwann im Jahr 2026 in vollem Umfang in Kraft treten – da der endgültige Text nach seiner Erstellung (und Übersetzung in die Sprachen der Mitgliedstaaten) durch abschließende Abstimmungen im Parlament und im Rat bestätigt werden muss Es dauert eine kurze Zeit, bis der Gesetzestext im Amtsblatt der EU veröffentlicht wird, und eine weitere, bevor er in Kraft tritt.
Die EU-Gesetzgeber haben sich außerdem auf einen schrittweisen Ansatz zur Einhaltung der Compliance-Anforderungen des Gesetzes geeinigt, wobei 24 Monate Zeit sind, bis die Hochrisikoregeln für GPAIs gelten.
Die Liste der streng verbotenen Anwendungsfälle von KI wird schon früher gelten, nur sechs Monate nach Inkrafttreten des Gesetzes – was möglicherweise Verbote für bestimmte „inakzeptable Risiko“-Anwendungen von KI bedeuten könnte, wie z. B. Social Scoring oder Clearview AI-Stil Selfie-Scraping für Gesichtserkennungsdatenbanken wird in der zweiten Hälfte des Jahres 2024 in Betrieb genommen, vorausgesetzt, dass sich im Rat oder im Parlament in letzter Minute kein Widerstand gegen die Verordnung erhebt. (Die vollständige Liste der verbotenen KI-Anwendungen finden Sie in unserem früheren Beitrag.)