Tage nachdem der Gesetzgeber in der europäische Union (EU) hat einen Entwurf des KI-Gesetzes verabschiedet, der darauf abzielt, die Nutzung der Technologie der künstlichen Intelligenz stärker einzuschränken, heißt es in einem Bericht OpenAI setzte sich dafür ein, die strengeren Vorschriften abzuschwächen.
Unter Berufung auf von der Europäischen Kommission erhaltene Dokumente heißt es in einem Bericht des Time Magazine, dass das Unternehmen, das den KI-Chatbot ChatGPT entwickelt hat, sich dafür eingesetzt hat, dass „wesentliche Elemente“ der KI-Gesetzgebung weniger streng sind, um die regulatorische Belastung für das Unternehmen zu verringern.
Es wird außerdem behauptet, dass „in mehreren Fällen“ von OpenAI vorgeschlagene Änderungen in den endgültigen Text des Gesetzesentwurfs gelangten, von den Gesetzgebern genehmigt wurden und „nun in eine letzte Verhandlungsrunde übergehen werden, bevor sie bereits im Januar abgeschlossen werden“.
Im Jahr 2022, so heißt es in dem Bericht, argumentierte OpenAI „wiederholt“ gegenüber Beamten, dass das KI-Gesetz seine Allzweck-KI-Systeme wie ChatGPT und Dall-E nicht als „hohes Risiko“ betrachten sollte. Dies würde bedeuten, dass das Unternehmen strengen Auflagen unterliegt legal Anforderungen.
Es ist zu beachten, dass der EU-Gesetzentwurf einen risikobasierten Ansatz verfolgt und Pflichten für diejenigen festlegt, die KI-Systeme einsetzen.
Auch Google und Microsoft setzten sich für mildere Regeln ein
Der Bericht hebt auch hervor, dass die Argumente von OpenAI mit denen von Microsoft und Google übereinstimmen. Beide Technologiegiganten haben sich zuvor bei EU-Beamten dafür eingesetzt, dass strenge Compliance-Anforderungen an Unternehmen gestellt werden sollten, die ein KI-Modell auf einen Anwendungsfall mit hohem Risiko anwenden, und nicht an diejenigen, die Allzweck-KI-Systeme entwickeln.
„GPT-3 ist an sich kein Hochrisikosystem. Aber [it] verfügt über Fähigkeiten, die möglicherweise in Anwendungsfällen mit hohem Risiko eingesetzt werden können“, sagte OpenAI in einem Dokument.
Dem Bericht zufolge hätten frühere Entwürfe des KI-Gesetzes Systeme wie ChatGPT und Dall-E als „hohes Risiko“ einstufen können, wenn sie Texte oder Bilder generierten, die „für eine Person fälschlicherweise als von Menschen erstellt und authentisch erscheinen könnten“.
Eine in diesem Zusammenhang hervorgehobene Lösung war das Gesetz, das die Kennzeichnung von KI-generierten Inhalten vorschreibt und den Nutzern klar macht, dass sie mit einem KI-System interagieren.
Was OpenAI zu sagen hat
„Auf Wunsch politischer Entscheidungsträger in der EU haben wir im September 2022 einen Überblick über unseren Ansatz für den sicheren Einsatz von Systemen wie GPT-3 gegeben und den damaligen Entwurf kommentiert [AI Act] basierend auf dieser Erfahrung“, wurde ein OpenAI-Sprecher zitiert.
„Seitdem ist die [AI Act] hat sich erheblich weiterentwickelt und wir haben öffentlich über die fortschreitenden Fähigkeiten und die Akzeptanz der Technologie gesprochen. Wir arbeiten weiterhin mit politischen Entscheidungsträgern zusammen und unterstützen das Ziel der EU, sicherzustellen, dass KI-Tools jetzt und in Zukunft sicher entwickelt, eingesetzt und genutzt werden“, fügte der Sprecher hinzu.
OpenAI-Operationen in Europa
Im Mai sagte Sam Altman, CEO von OpenAI, der auf einer einmonatigen Tour durch große Hauptstädte war, um über die KI-Regulierung zu sprechen, Berichten zufolge in London, dass das Unternehmen seinen Betrieb in Europa einstellen könnte, wenn OpenAI nicht in der Lage sei, die Regulierung einzuhalten. Später sagte er, dass das Unternehmen keine Pläne habe, die Region zu verlassen.
Unter Berufung auf von der Europäischen Kommission erhaltene Dokumente heißt es in einem Bericht des Time Magazine, dass das Unternehmen, das den KI-Chatbot ChatGPT entwickelt hat, sich dafür eingesetzt hat, dass „wesentliche Elemente“ der KI-Gesetzgebung weniger streng sind, um die regulatorische Belastung für das Unternehmen zu verringern.
Es wird außerdem behauptet, dass „in mehreren Fällen“ von OpenAI vorgeschlagene Änderungen in den endgültigen Text des Gesetzesentwurfs gelangten, von den Gesetzgebern genehmigt wurden und „nun in eine letzte Verhandlungsrunde übergehen werden, bevor sie bereits im Januar abgeschlossen werden“.
Im Jahr 2022, so heißt es in dem Bericht, argumentierte OpenAI „wiederholt“ gegenüber Beamten, dass das KI-Gesetz seine Allzweck-KI-Systeme wie ChatGPT und Dall-E nicht als „hohes Risiko“ betrachten sollte. Dies würde bedeuten, dass das Unternehmen strengen Auflagen unterliegt legal Anforderungen.
Es ist zu beachten, dass der EU-Gesetzentwurf einen risikobasierten Ansatz verfolgt und Pflichten für diejenigen festlegt, die KI-Systeme einsetzen.
Auch Google und Microsoft setzten sich für mildere Regeln ein
Der Bericht hebt auch hervor, dass die Argumente von OpenAI mit denen von Microsoft und Google übereinstimmen. Beide Technologiegiganten haben sich zuvor bei EU-Beamten dafür eingesetzt, dass strenge Compliance-Anforderungen an Unternehmen gestellt werden sollten, die ein KI-Modell auf einen Anwendungsfall mit hohem Risiko anwenden, und nicht an diejenigen, die Allzweck-KI-Systeme entwickeln.
„GPT-3 ist an sich kein Hochrisikosystem. Aber [it] verfügt über Fähigkeiten, die möglicherweise in Anwendungsfällen mit hohem Risiko eingesetzt werden können“, sagte OpenAI in einem Dokument.
Dem Bericht zufolge hätten frühere Entwürfe des KI-Gesetzes Systeme wie ChatGPT und Dall-E als „hohes Risiko“ einstufen können, wenn sie Texte oder Bilder generierten, die „für eine Person fälschlicherweise als von Menschen erstellt und authentisch erscheinen könnten“.
Eine in diesem Zusammenhang hervorgehobene Lösung war das Gesetz, das die Kennzeichnung von KI-generierten Inhalten vorschreibt und den Nutzern klar macht, dass sie mit einem KI-System interagieren.
Was OpenAI zu sagen hat
„Auf Wunsch politischer Entscheidungsträger in der EU haben wir im September 2022 einen Überblick über unseren Ansatz für den sicheren Einsatz von Systemen wie GPT-3 gegeben und den damaligen Entwurf kommentiert [AI Act] basierend auf dieser Erfahrung“, wurde ein OpenAI-Sprecher zitiert.
„Seitdem ist die [AI Act] hat sich erheblich weiterentwickelt und wir haben öffentlich über die fortschreitenden Fähigkeiten und die Akzeptanz der Technologie gesprochen. Wir arbeiten weiterhin mit politischen Entscheidungsträgern zusammen und unterstützen das Ziel der EU, sicherzustellen, dass KI-Tools jetzt und in Zukunft sicher entwickelt, eingesetzt und genutzt werden“, fügte der Sprecher hinzu.
OpenAI-Operationen in Europa
Im Mai sagte Sam Altman, CEO von OpenAI, der auf einer einmonatigen Tour durch große Hauptstädte war, um über die KI-Regulierung zu sprechen, Berichten zufolge in London, dass das Unternehmen seinen Betrieb in Europa einstellen könnte, wenn OpenAI nicht in der Lage sei, die Regulierung einzuhalten. Später sagte er, dass das Unternehmen keine Pläne habe, die Region zu verlassen.