Schnelle technologische Fortschritte wie die ChatGPT-App für generative künstliche Intelligenz (KI) erschweren die Bemühungen der Gesetzgeber der Europäischen Union, sich auf wegweisende KI-Gesetze zu einigen, sagten Quellen mit direkter Kenntnis der Angelegenheit gegenüber Reuters. Die Europäische Kommission hat den Regelentwurf vor fast zwei Jahren vorgeschlagen, um die Bürger vor den Gefahren der aufkommenden Technologie zu schützen, die in den letzten Monaten einen Boom bei Investitionen und Verbraucherbeliebtheit erlebt hat.
Der Entwurf muss zwischen EU-Ländern und EU-Gesetzgebern ausgehandelt werden, was als Trilog bezeichnet wird, bevor die Regeln Gesetz werden können. Mehrere Gesetzgeber hatten erwartet, im vergangenen Monat bei einem Treffen in Straßburg, Frankreich, einen Konsens über den 108-seitigen Gesetzentwurf zu erzielen und in den nächsten Monaten zu einem Trilog überzugehen. Aber ein fünfstündiges Treffen am 13. Februar führte zu keiner Lösung, und der Gesetzgeber ist laut drei mit den Diskussionen vertrauten Quellen über verschiedene Aspekte des Gesetzes in Streit geraten. Während die Branche eine Einigung bis Ende des Jahres erwartet, gibt es Bedenken, dass die Komplexität und der Mangel an Fortschritten die Gesetzgebung auf das nächste Jahr verzögern könnten, und bei den Europawahlen könnten Abgeordnete mit ganz anderen Prioritäten ihr Amt antreten. „Das Tempo, in dem neue Systeme veröffentlicht werden, macht die Regulierung zu einer echten Herausforderung“, sagte Daniel Leufer, Senior Policy Analyst bei der Rechtegruppe Access Now. „Es ist ein schnelllebiges Ziel, aber es gibt Maßnahmen, die trotz der Geschwindigkeit der Entwicklung relevant bleiben: Transparenz, Qualitätskontrolle und Maßnahmen zur Durchsetzung ihrer Grundrechte.“ Rasante Entwicklungen Der Gesetzgeber arbeitet sich durch die mehr als 3.000 eingereichten Änderungsanträge, die alles von der Schaffung eines neuen AI-Büros bis zum Geltungsbereich der Vorschriften des Gesetzes abdecken. „Die Verhandlungen sind ziemlich komplex, weil viele verschiedene Ausschüsse beteiligt sind“, sagte Brando Benifei, ein italienischer Europaabgeordneter und einer der beiden Gesetzgeber, die die Verhandlungen über das mit Spannung erwartete KI-Gesetz des Blocks leiten. „Die Diskussionen können ziemlich lang werden. Man muss jedes Mal mit etwa 20 Abgeordneten sprechen.“ Die Gesetzgeber haben versucht, ein Gleichgewicht zwischen der Förderung von Innovationen und dem Schutz der Grundrechte der Bürger zu finden. Dies führte dazu, dass verschiedene KI-Tools nach ihrem wahrgenommenen Risikoniveau klassifiziert wurden: von minimal bis begrenzt, hoch und inakzeptabel. Tools mit hohem Risiko werden nicht verboten, erfordern jedoch von Unternehmen eine hohe Transparenz in ihren Abläufen. Aber diese Debatten haben wenig Raum gelassen, sich mit aggressiv expandierenden generativen KI-Technologien wie ChatGPT und Stable Diffusion zu befassen, die sich weltweit verbreitet haben und sowohl die Faszination als auch die Kontroverse der Benutzer hervorrufen. Bis Februar stellte ChatGPT, hergestellt von der von Microsoft unterstützten OpenAI, einen Rekord für die am schnellsten wachsende Benutzerbasis aller Verbraucheranwendungs-Apps in der Geschichte auf. Fast alle großen Tech-Player sind in diesem Sektor beteiligt, darunter Microsoft, Alphabet und Meta. Große Technik, große Probleme Die EU-Diskussionen haben bei Unternehmen – von kleinen Startups bis hin zu Big Tech – Bedenken darüber geweckt, wie sich Vorschriften auf ihr Geschäft auswirken könnten und ob sie gegenüber Konkurrenten aus anderen Kontinenten einen Wettbewerbsnachteil erleiden würden. Hinter den Kulissen, Große Tech-Unternehmendie Milliarden von Dollar in die neue Technologie investiert haben, haben sich stark dafür eingesetzt, ihre Innovationen außerhalb des Bereichs der risikoreichen Klärung zu halten, die mehr Compliance, mehr Kosten und mehr Verantwortlichkeit für ihre Produkte bedeuten würde, sagten Quellen. Eine aktuelle Umfrage des Branchenverbands applyAI ergab, dass 51 % der Befragten aufgrund des KI-Gesetzes mit einer Verlangsamung der KI-Entwicklungsaktivitäten rechnen. Um Tools wie ChatGPT zu adressieren, die scheinbar endlose Anwendungen haben, hat der Gesetzgeber eine weitere Kategorie eingeführt: „Allzweck-KI-Systeme“ (GPAIS), um Tools zu beschreiben, die angepasst werden können, um eine Reihe von Funktionen auszuführen. Es bleibt unklar, ob alle GPAIS als hochriskant eingestuft werden. Vertreter von Technologieunternehmen haben sich gegen solche Schritte gewehrt und darauf bestanden, dass ihre eigenen internen Richtlinien robust genug sind, um sicherzustellen, dass die Technologie sicher eingesetzt wird, und sogar vorgeschlagen, dass das Gesetz eine Opt-in-Klausel enthalten sollte, nach der Firmen selbst entscheiden können, ob es gelten die Vorschriften. Zweischneidiges Schwert Die Google-eigene KI-Firma DeepMind, die derzeit ihren eigenen KI-Chatbot Sparrow testet, sagte gegenüber Reuters, die Regulierung von Mehrzwecksystemen sei komplex. „Wir glauben, dass die Schaffung eines Governance-Rahmens rund um GPAIS ein integrativer Prozess sein muss, was bedeutet, dass alle betroffenen Gemeinschaften und die Zivilgesellschaft einbezogen werden sollten“, sagte Alexandra Belias, Leiterin für internationale öffentliche Politik des Unternehmens. Sie fügte hinzu: „Die Frage hier ist: Wie stellen wir sicher, dass der Risikomanagementrahmen, den wir heute schaffen, auch morgen noch angemessen ist?“ Daniel Ek, Geschäftsführer der Audio-Streaming-Plattform Spotify – die kürzlich ihren eigenen „AI DJ“ auf den Markt gebracht hat, der personalisierte Wiedergabelisten kuratieren kann – sagte gegenüber Reuters, die Technologie sei „ein zweischneidiges Schwert“. „Es gibt viele Dinge, die wir berücksichtigen müssen“, sagte er. „Unser Team arbeitet sehr aktiv mit den Aufsichtsbehörden zusammen und versucht sicherzustellen, dass diese Technologie so vielen wie möglich zugute kommt und so sicher wie möglich ist.“ Die Abgeordneten sagen, dass das Gesetz regelmäßigen Überprüfungen unterzogen wird, um Aktualisierungen zu ermöglichen, sobald neue Probleme mit KI auftreten. Angesichts der bevorstehenden Europawahlen im Jahr 2024 stehen sie jedoch unter dem Druck, beim ersten Mal etwas Substanzielles zu liefern. „Es dürfen keine Gespräche überstürzt und keine Kompromisse eingegangen werden, nur damit die Akte noch in diesem Jahr abgeschlossen werden kann“, sagte Leufer. „Die Rechte der Menschen stehen auf dem Spiel.“