EU Branchenchef Thierry Breton hat neue Vorschläge gemacht künstliche Intelligenz Regeln werden darauf abzielen, Bedenken hinsichtlich der Risiken rund um die ChatGPT Chatbot Und KI Technologie, in den ersten Kommentaren eines hochrangigen Brüsseler Beamten zur App. Nur zwei Monate nach seiner Einführung wurde ChatGPT – das als Reaktion auf Eingabeaufforderungen Artikel, Essays, Witze und sogar Gedichte generieren kann – als die am schnellsten wachsende Verbraucher-App der Geschichte eingestuft.
Einige Experten haben Befürchtungen geäußert, dass Systeme, die von solchen Apps verwendet werden, für Plagiate, Betrug und die Verbreitung von Fehlinformationen missbraucht werden könnten, auch wenn die Verfechter der künstlichen Intelligenz dies als technologischen Sprung begrüßen. Breton sagte, die Risiken, die von ChatGPT ausgehen – die Idee von OpenAI, ein privates Unternehmen, das von Microsoft Corp. unterstützt wird, und KI-Systeme unterstrich die dringende Notwendigkeit von Regeln, die er letztes Jahr vorgeschlagen hatte, um den globalen Standard für die Technologie festzulegen. Die Regeln werden derzeit in Brüssel diskutiert. „Wie ChatGPT gezeigt hat, können KI-Lösungen große Chancen für Unternehmen und Bürger bieten, aber auch Risiken bergen. Deshalb brauchen wir einen soliden Regulierungsrahmen, um eine vertrauenswürdige KI auf der Grundlage hochwertiger Daten zu gewährleisten“, sagte er Reuters in schriftlichen Kommentaren . Microsoft lehnte es ab, sich zu Bretons Aussage zu äußern. OpenAI – dessen App eine Technologie namens generative KI verwendet – reagierte nicht sofort auf eine Bitte um Stellungnahme. OpenAI hat auf seiner Website erklärt, dass es darauf abzielt, künstliche Intelligenz zu produzieren, die „der gesamten Menschheit zugute kommt“, während es versucht, sichere und nützliche KI zu bauen. Nach den EU-Regelungsentwürfen gilt ChatGPT als Allzweck-KI-System, das für mehrere Zwecke verwendet werden kann, darunter auch für risikoreiche Zwecke wie die Auswahl von Kandidaten für Stellen und die Kreditwürdigkeitsprüfung. Breton möchte, dass OpenAI eng mit nachgelagerten Entwicklern von Hochrisiko-KI-Systemen zusammenarbeitet, um deren Einhaltung des vorgeschlagenen KI-Gesetzes zu ermöglichen. „Allein die Tatsache, dass die generative KI neu in die Definition aufgenommen wurde, zeigt die Geschwindigkeit, mit der sich die Technologie entwickelt, und dass die Regulierungsbehörden Mühe haben, mit diesem Tempo Schritt zu halten“, sagte ein Partner einer US-Kanzlei. „Hohes Risiko“-Sorgen
Laut Führungskräften mehrerer Unternehmen, die an der Entwicklung künstlicher Intelligenz beteiligt sind, befürchten Unternehmen, dass ihre Technologie in die KI-Kategorie „hohes Risiko“ eingestuft wird, was zu strengeren Compliance-Anforderungen und höheren Kosten führen würde. Eine Umfrage des Branchenverbands applyAI ergab, dass 51 % der Befragten aufgrund des KI-Gesetzes mit einer Verlangsamung ihrer KI-Entwicklungsaktivitäten rechnen. Wirksame KI-Vorschriften sollten sich auf die Anwendungen mit dem höchsten Risiko konzentrieren, schrieb Microsoft-Präsident Brad Smith am Mittwoch in einem Blogbeitrag. „Es gibt Tage, an denen ich optimistisch bin, und Momente, an denen ich pessimistisch bin, wie die Menschheit KI einsetzen wird“, sagte er. Breton sagte, die Europäische Kommission arbeite eng mit dem EU-Rat und dem Europäischen Parlament zusammen, um die Regeln des KI-Gesetzes für Allzweck-KI-Systeme weiter zu präzisieren. „Menschen müssten darüber informiert werden, dass sie es mit einem Chatbot und nicht mit einem Menschen zu tun haben. Transparenz ist auch im Hinblick auf die Gefahr von Voreingenommenheit und Falschinformationen wichtig“, sagte er. Generative KI-Modelle müssen mit einer großen Menge an Text oder Bildern trainiert werden, um eine angemessene Antwort zu erstellen, die zu Vorwürfen von Urheberrechtsverletzungen führt. Breton sagte, dass bevorstehende Gespräche mit Gesetzgebern über KI-Regeln diese Aspekte abdecken würden. Bedenken wegen Plagiaten von Studenten haben einige öffentliche US-Schulen und die französische Universität Sciences Po dazu veranlasst, die Verwendung von ChatGPT zu verbieten.