OpenAI präsentiert seine bevorzugte Version der KI-Regulierung in einem neuen „Blueprint“

OpenAI am Montag veröffentlicht was es als „wirtschaftlichen Entwurf“ für KI bezeichnet: ein lebendiges Dokument, das Richtlinien darlegt, auf denen das Unternehmen mit der US-Regierung und ihren Verbündeten aufbauen kann.

Der Entwurf, der einen Vorstoß von Chris Lehane, dem Vizepräsidenten für globale Angelegenheiten von OpenAI, enthält, besagt, dass die USA handeln müssen, um Milliarden an Finanzmitteln für die Chips, Daten, Energie und Talente anzuziehen, die notwendig sind, um „bei der KI zu gewinnen“.

„Während einige Länder heute KI und ihr wirtschaftliches Potenzial außer Acht lassen“, schrieb Lehane, „kann die US-Regierung ihrer KI-Industrie den Weg ebnen, um die weltweite Innovationsführerschaft des Landes fortzusetzen und gleichzeitig die nationale Sicherheit zu schützen.“

OpenAI hat wiederholt angerufen auf die US-Regierung, mehr zu nehmen materielles Handeln auf KI und Infrastruktur, um die Entwicklung der Technologie zu unterstützen. Die Bundesregierung hat die KI-Regulierung weitgehend den Ländern überlassen, eine Situation, die OpenAI im Entwurf als unhaltbar bezeichnet.

Allein im Jahr 2024, Landesgesetzgeber eingeführt Fast 700 Gesetzesentwürfe im Zusammenhang mit KI, von denen einige im Widerspruch zu anderen stehen. Der Responsible AI Governance Act von Texas beispielsweise stellt belastende Haftungsanforderungen dar über Entwickler von Open-Source-KI-Modellen.

Sam Altman, CEO von OpenAI, kritisierte auch bestehende Bundesgesetze wie den CHIPS Act, der darauf abzielte, die US-Halbleiterindustrie durch die Anziehung inländischer Investitionen der weltweit führenden Chiphersteller wiederzubeleben. In einem aktuellen Interview mit Bloomberg sagte Altman sagte dass das CHIPS-Gesetz „[has not] „Es war so effektiv, wie jeder von uns gehofft hatte“, und er glaubt, dass es „eine echte Chance“ für die Trump-Regierung gibt, „als Folgemaßnahme etwas viel Besseres zu tun“.

„Der Sache stimme ich wirklich zutiefst zu [Trump] „Es ist unglaublich, wie schwierig es geworden ist, in den Vereinigten Staaten etwas aufzubauen“, sagte Altman in dem Interview. „Kraftwerke, Rechenzentren und so weiter. Ich verstehe, wie bürokratische Unruhe entsteht, aber das ist für das Land im Allgemeinen nicht hilfreich. Dies ist insbesondere dann nicht hilfreich, wenn man darüber nachdenkt, was passieren muss, damit die USA führend in der KI werden. Und die USA müssen wirklich eine Vorreiterrolle bei der KI übernehmen.“

Um die für die Entwicklung und den Betrieb von KI erforderlichen Rechenzentren mit Strom zu versorgen, empfiehlt der Entwurf von OpenAI eine „dramatische“ Erhöhung der Bundesausgaben für Strom und Datenübertragung sowie einen sinnvollen Ausbau „neuer Energiequellen“ wie Solar-, Windparks und Kernenergie. OpenAI hat dies – zusammen mit seinen KI-Konkurrenten – getan vorher hat seine Unterstützung für Atomkraftprojekte geleistet, streiten dass sie benötigt werden, um den Strombedarf von Serverfarmen der nächsten Generation zu decken.

Die Technologiegiganten Meta und AWS sind bei ihren Nuklearbemühungen in Schwierigkeiten geraten, allerdings aus Gründen, die nichts mit der Kernkraft selbst zu tun haben.

Kurzfristig sieht der Entwurf von OpenAI vor, dass die Regierung „Best Practices“ für den Modelleinsatz zum Schutz vor Missbrauch entwickelt, die Zusammenarbeit der KI-Industrie mit nationalen Sicherheitsbehörden „rationalisiert“ und Exportkontrollen entwickelt, die den Austausch von Modellen mit Verbündeten ermöglichen, während „ Limit[ing]„ihr Export in „feindliche Nationen“. Darüber hinaus regt der Entwurf an, dass die Regierung bestimmte nationale sicherheitsrelevante Informationen, etwa Briefings über Bedrohungen für die KI-Branche, mit Anbietern teilt und Anbietern dabei hilft, Ressourcen zu sichern, um ihre Modelle auf Risiken hin zu bewerten.

„Der Ansatz der Bundesregierung zur Grenzmodellsicherheit sollte die Anforderungen rationalisieren“, heißt es in der Blaupause. „Der verantwortungsvolle Export von … Modellen an unsere Verbündeten und Partner wird ihnen dabei helfen, ihre eigenen KI-Ökosysteme aufzubauen, einschließlich ihrer eigenen Entwicklergemeinschaften, die mit KI innovativ sind und ihre Vorteile verbreiten, während sie gleichzeitig KI auf US-Technologie aufbauen, nicht auf Technologie, die von der Kommunistischen Partei Chinas finanziert wird.“ ”

OpenAI zählt bereits einige US-Regierungsbehörden zu seinen Partnern und – sollte sein Entwurf bei politischen Entscheidungsträgern an Bedeutung gewinnen – wird er voraussichtlich weitere hinzufügen. Das Unternehmen hat Verträge mit dem Pentagon über Cybersicherheitsarbeiten und andere damit zusammenhängende Projekte abgeschlossen und hat sich mit dem Verteidigungs-Startup Anduril zusammengetan, um seine KI-Technologie für Systeme zu liefern, die das US-Militär zur Abwehr von Drohnenangriffen einsetzt.

OpenAI fordert in seinem Entwurf die Ausarbeitung von Standards, die von anderen Nationen und internationalen Gremien im Namen des US-Privatsektors „anerkannt und respektiert“ werden. Aber das Unternehmen schreckt davor zurück, verbindliche Regeln oder Verordnungen zu befürworten. „[The government can create] ein definierter, freiwilliger Weg für Unternehmen, die sich weiterentwickeln [AI] mit der Regierung zusammenzuarbeiten, um Modellbewertungen zu definieren, Modelle zu testen und Informationen auszutauschen, um die Schutzmaßnahmen des Unternehmens zu unterstützen“, heißt es in der Blaupause.

Einen ähnlichen Weg verfolgte die Biden-Regierung mit ihrer AI Executive Order, die darauf abzielte, mehrere hochrangige, freiwillige KI-Sicherheitsstandards zu erlassen. Mit der Durchführungsverordnung wurde das US AI Safety Institute (AISI) gegründet, eine Einrichtung der Bundesregierung, die Risiken in KI-Systemen untersucht und mit Unternehmen wie OpenAI zusammenarbeitet, um die Modellsicherheit zu bewerten. Aber Trump und seine Verbündete haben zugesagt, Bidens Durchführungsverordnung aufzuheben, wodurch ihre Kodifizierung – und die AISI – Gefahr laufen, rückgängig gemacht zu werden.

Der Entwurf von OpenAI befasst sich auch mit dem Urheberrecht in Bezug auf KI, a Hot-Button-Thema. Das Unternehmen plädiert dafür, dass KI-Entwickler in der Lage sein sollten, „öffentlich verfügbare Informationen“, einschließlich urheberrechtlich geschützter Inhalte, zur Entwicklung von Modellen zu verwenden.

OpenAI trainiert zusammen mit vielen anderen KI-Unternehmen Modelle anhand öffentlicher Daten aus dem gesamten Web. Das Unternehmen verfügt über Lizenzvereinbarungen mit einer Reihe von Plattformen und Herausgebern und bietet Entwicklern begrenzte Möglichkeiten, sich von der Modellentwicklung abzumelden. Aber OpenAI hat es auch sagte dass es „unmöglich“ sei, KI-Modelle zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden, und eine Reihe von Urhebern haben das Unternehmen verklagt, weil es angeblich ohne Erlaubnis an ihren Werken trainiert hat.

„[O]„Andere Akteure, einschließlich Entwickler in anderen Ländern, unternehmen keine Anstrengungen, die Inhaber von IP-Rechten zu respektieren oder mit ihnen in Kontakt zu treten“, heißt es in der Blaupause. „Wenn die USA und gleichgesinnte Nationen dieses Ungleichgewicht nicht durch sinnvolle Maßnahmen angehen, die dazu beitragen, die KI langfristig voranzutreiben, werden dieselben Inhalte weiterhin für die KI-Schulung an anderen Orten verwendet, jedoch zum Nutzen anderer Volkswirtschaften.“ [The government should ensure] dass KI die Fähigkeit hat, aus universellen, öffentlich zugänglichen Informationen zu lernen, genau wie Menschen, und gleichzeitig die Urheber vor unbefugten digitalen Nachbildungen schützt.“

Es bleibt abzuwarten, welche Teile des OpenAI-Entwurfs, wenn überhaupt, Einfluss auf die Gesetzgebung haben. Aber die Vorschläge sind ein Signal dafür, dass OpenAI beabsichtigt, ein wichtiger Akteur im Rennen um eine einheitliche US-KI-Politik zu bleiben.

In der ersten Hälfte des letzten Jahres hat OpenAI seine Lobbying-Ausgaben mehr als verdreifacht und 800.000 US-Dollar ausgegeben, gegenüber 260.000 US-Dollar im gesamten Jahr 2023. Das Unternehmen hat auch ehemalige Regierungsführer in seine Führungsetagen aufgenommen, darunter den ehemaligen Beamten des Verteidigungsministeriums Sasha Baker und NSA-Chef Paul Nakasone und Aaron Chatterji, ehemaliger Chefökonom im Handelsministerium unter Präsident Joe Biden.

Da es Einstellungen macht und erweitert sich OpenAI, seine Abteilung für globale Angelegenheiten, äußerte sich deutlicher darüber, welche KI-Gesetze und -Regeln es bevorzugt, und setzte sich beispielsweise für Gesetzesentwürfe des Senats ein, die ein föderales Regelsetzungsgremium für KI einrichten und Bundesstipendien für KI-Forschung und -Entwicklung bereitstellen würden. Das Unternehmen hat sich auch gegen Gesetzesentwürfe ausgesprochen, insbesondere gegen den kalifornischen SB 1047, mit dem Argument, dass dieser die KI-Innovation ersticken und Talente verdrängen würde.

tch-1-tech