Die britische Kartellbehörde kündigt eine erste Überprüfung der generativen KI an

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Nun, das war schnell. Das hat die britische Wettbewerbsaufsicht angekündigt erste Überprüfung von „AI Foundational Models“, wie den Large Language Models (LLMs), die ChatGPT von OpenAI und New Bing von Microsoft untermauern. Generative KI-Modelle, die KI-Kunstplattformen wie DALL-E oder Midjourney von OpenAI antreiben, werden wahrscheinlich ebenfalls in den Anwendungsbereich fallen.

Die Competition and Markets Authority (CMA) sagte, ihre Überprüfung werde sich mit Wettbewerbs- und Verbraucherschutzaspekten bei der Entwicklung und Verwendung von KI-Basismodellen befassen – mit dem Ziel zu verstehen, „wie sich Basismodelle entwickeln und eine Bewertung der Bedingungen und Prinzipien erstellen, die wird die Entwicklung von Gründungsmodellen und deren Verwendung in der Zukunft am besten leiten“.

Es schlägt vor, die Überprüfung „Anfang September“ zu veröffentlichen, mit einer Frist bis zum 2. Juni für interessierte Interessengruppen, um Antworten einzureichen, um ihre Arbeit zu informieren.

„Grundlagenmodelle, zu denen große Sprachmodelle und generative künstliche Intelligenz (KI) gehören, die in den letzten fünf Jahren entstanden sind, haben das Potenzial, vieles von dem, was Menschen und Unternehmen tun, zu verändern. Um sicherzustellen, dass die Innovation in der KI auf eine Weise fortgesetzt wird, die Verbrauchern, Unternehmen und der britischen Wirtschaft zugute kommt, hat die Regierung Regulierungsbehörden, einschließlich der [CMA], darüber nachzudenken, wie die innovative Entwicklung und der Einsatz von KI anhand von fünf übergeordneten Prinzipien unterstützt werden können: Safety, Security und Robustness; angemessene Transparenz und Erklärbarkeit; Gerechtigkeit; Rechenschaftspflicht und Governance; und Anfechtbarkeit und Rechtsbehelfe“, schrieb die CMA in einer Pressemitteilung.“

Dem Center for Research on Foundation Models des Human-Centered Artificial Intelligence Center der Stanford University wird die Prägung des Begriffs „Foundational Models“ im Jahr 2021 zugeschrieben, um sich auf KI-Systeme zu beziehen, die sich darauf konzentrieren, ein Modell mit einer riesigen Datenmenge zu trainieren und daran anzupassen viele Anwendungen.

„Die Entwicklung der KI berührt eine Reihe wichtiger Themen, darunter Sicherheit, Urheberrecht, Datenschutz und Menschenrechte sowie die Funktionsweise von Märkten. Viele dieser Probleme werden von der Regierung oder anderen Aufsichtsbehörden geprüft, daher wird sich diese erste Überprüfung auf die Fragen konzentrieren, die die CMA am besten angehen kann – was sind die wahrscheinlichen Auswirkungen der Entwicklung von KI-Basismodellen für Wettbewerb und Verbraucherschutz?“ die CMA hinzugefügt.

In einer Erklärung sagte auch seine CEO, Sarah Cardell:

KI ist in den letzten Monaten ins öffentliche Bewusstsein gerückt, ist aber seit einiger Zeit auf unserem Radar. Es ist eine Technologie, die sich schnell entwickelt und das Potenzial hat, die Art und Weise, wie Unternehmen konkurrieren, zu verändern und ein erhebliches Wirtschaftswachstum voranzutreiben.

Es ist entscheidend, dass die potenziellen Vorteile dieser transformativen Technologie für britische Unternehmen und Verbraucher leicht zugänglich sind, während die Menschen vor Problemen wie falschen oder irreführenden Informationen geschützt bleiben. Unser Ziel ist es, diese neue, schnell skalierende Technologie so zu entwickeln, dass offene, wettbewerbsfähige Märkte und ein wirksamer Verbraucherschutz gewährleistet sind.

Insbesondere sagte die britische Wettbewerbsbehörde, dass ihre erste Überprüfung der KI-Basismodelle:

  • untersuchen, wie sich die Wettbewerbsmärkte für Gründungsmodelle und deren Einsatz entwickeln könnten
  • untersuchen, welche Chancen und Risiken diese Szenarien für den Wettbewerb und den Verbraucherschutz mit sich bringen könnten
  • Erstellung von Leitprinzipien zur Unterstützung des Wettbewerbs und zum Schutz der Verbraucher bei der Entwicklung von KI-Grundlagenmodellen

Während es für die Kartellbehörde früh erscheinen mag, eine Überprüfung einer so schnelllebigen neuen Technologie durchzuführen, handelt die CMA auf Anweisung der Regierung.

Ein im März veröffentlichtes KI-Weißbuch signalisierte, dass die Minister es vorziehen, in dieser Phase keine maßgeschneiderten Regeln (oder Aufsichtsgremien) zur Regelung der Nutzung künstlicher Intelligenz aufzustellen. Jedoch Die Minister sagten, dass die bestehenden britischen Regulierungsbehörden – einschließlich der CMA, die direkt namentlich überprüft wurde – voraussichtlich Leitlinien herausgeben würden, um die sichere, faire und verantwortungsvolle Nutzung von KI zu fördern.

Die CMA sagt, dass ihre anfängliche Überprüfung grundlegender KI-Modelle im Einklang mit den Anweisungen im Weißbuch steht, in dem die Regierung darüber sprach, dass bestehende Regulierungsbehörden „detaillierte Risikoanalysen“ durchführen, um in der Lage zu sein, potenzielle Durchsetzungsmaßnahmen durchzuführen, dh bei gefährlichen, unfaire und nicht nachvollziehbare Anwendungen von KI unter Ausnutzung ihrer bestehenden Befugnisse.

Die Regulierungsbehörde weist auch auf ihre Kernaufgabe hin – die Unterstützung offener, wettbewerbsfähiger Märkte – als einen weiteren Grund, sich jetzt mit der generativen KI zu befassen.

Insbesondere wird der Wettbewerbswächter in den kommenden Jahren zusätzliche Befugnisse zur Regulierung von Big Tech erhalten, im Rahmen von Plänen, die von der Regierung von Premierminister Rishi Sunak letzten Monat in den Hintergrund gedrängt wurden, als die Minister sagten, sie würde mit einem langwierigen ( aber stark verzögert) Ex-ante-Reform, die auf die Marktmacht digitaler Giganten abzielt.

Es wird erwartet, dass die Digital Markets Unit der CMA, die seit 2021 in Schattenform in Betrieb ist, in den kommenden Jahren (endlich) Gesetzgebungsbefugnisse erlangen wird, um proaktive „wettbewerbsfördernde“ Regeln anzuwenden, die auf Plattformen zugeschnitten sind, die als geeignet erachtet werden einen „strategischen Marktstatus“ (SMS) haben. Wir können also spekulieren, dass Anbieter von leistungsstarken grundlegenden KI-Modellen letztendlich als SMS-Anbieter eingestuft werden könnten – was bedeutet, dass sie erwarten könnten, dass sie mit maßgeschneiderten Regeln darüber rechnen müssen, wie sie gegenüber Konkurrenten und Verbrauchern auf dem britischen Markt agieren müssen.

Auch die britische Datenschutzbehörde ICO hat ein Auge auf die generative KI geworfen. Es ist ein weiteres bestehendes Aufsichtsgremium, das die Regierung beauftragt hat, der KI im Rahmen ihres Plans für kontextspezifische Leitlinien besondere Aufmerksamkeit zu schenken, um die Entwicklung der Technologie durch die Anwendung bestehender Gesetze zu steuern.

In einem Blogeintrag Letzten Monat gab Stephen Almond, Executive Director of Regulatory Risk bei ICO, einige Tipps und eine kleine Warnung für Entwickler von generativer KI, wenn es um die Einhaltung der britischen Datenschutzvorschriften geht. „Organisationen, die generative KI entwickeln oder einsetzen, sollten ihre Datenschutzverpflichtungen von Anfang an berücksichtigen und eine Datenschutzrichtlinie in Anspruch nehmen Design und standardmäßiger Ansatz,“ er schlug vor. „Dies ist nicht optional – wenn Sie personenbezogene Daten verarbeiten, ist dies das Gesetz.“

Über dem Ärmelkanal in der Europäischen Union ist der Gesetzgeber derweil dabei, ein festes Regelwerk zu beschließen, das voraussichtlich für die generative KI gelten wird.

Die Verhandlungen über einen endgültigen Text für das neue KI-Regelwerk der EU sind im Gange – aber derzeit liegt der Schwerpunkt darauf, wie grundlegende Modelle durch Änderungen des risikobasierten Rahmenwerks zur Regulierung der Verwendung von KI reguliert werden können, das der Block vor über zwei Jahren als Entwurf veröffentlicht hat.

Es bleibt abzuwarten, wo die Mitgesetzgeber der EU bei dem landen werden, was manchmal auch als Allzweck-KI bezeichnet wird. Aber wie wir kürzlich berichteten, drängen Parlamentarier auf einen mehrschichtigen Ansatz, um Sicherheitsprobleme mit grundlegenden Modellen anzugehen; die Komplexität der Verantwortlichkeiten in den KI-Lieferketten; und um spezifische inhaltliche Bedenken (wie Urheberrecht) anzusprechen, die mit generativer KI verbunden sind.

Hinzu kommt, dass natürlich bereits EU-Datenschutzrecht für KI gilt. Und datenschutzorientierte Untersuchungen von Modellen wie ChatGPT sind im Block im Gange – auch in Italien, wo eine Intervention der lokalen Aufsichtsbehörde dazu führte, dass OpenAI im vergangenen Monat eine Reihe von Datenschutzoffenlegungen und -kontrollen herausbrachte.

Der Europäische Datenschutzausschuss hat kürzlich auch eine Task Force eingerichtet, um die Koordinierung zwischen verschiedenen Datenschutzbehörden bei Untersuchungen des KI-Chatbots zu unterstützen. Andere, die ChatGPT untersuchen, sind die spanische Datenschutzbehörde.

tch-1-tech