Unterschreiben oder Veto einlegen: Wie geht es weiter mit Kaliforniens KI-Katastrophengesetz SB 1047?

Ein umstrittener kalifornischer Gesetzentwurf zur Verhinderung von KI-Katastrophen, SB 1047, hat die endgültige Abstimmung im Senat des Staates bestanden und geht nun an Gouverneur Gavin Newsom. Er muss die extremsten theoretischen Risiken von KI-Systemen – einschließlich ihrer möglichen Rolle bei menschlichen Todesfällen – gegen die Möglichkeit abwägen, Kaliforniens KI-Boom zu vereiteln. Er hat bis zum 30. September Zeit, SB 1047 in Kraft zu setzen oder es ganz zu blockieren.

Der von Staatssenator Scott Wiener eingebrachte Gesetzentwurf SB 1047 soll verhindern, dass sehr große KI-Modelle Katastrophen wie Todesfälle oder Cyberangriffe mit Schäden in Höhe von über 500 Millionen US-Dollar verursachen.

Um es klar zu sagen: Es gibt heute nur sehr wenige KI-Modelle, die groß genug sind, um von dem Gesetzentwurf abgedeckt zu werden, und KI wurde noch nie für einen Cyberangriff dieses Ausmaßes verwendet. Aber der Gesetzentwurf betrifft die Zukunft von KI-Modellen, nicht die Probleme, die heute bestehen.

SB 1047 würde Entwickler von KI-Modellen für ihre Schäden haftbar machen – so wie Waffenhersteller für Massenerschießungen haftbar gemacht würden – und würde dem Generalstaatsanwalt von Kalifornien die Befugnis verleihen, KI-Unternehmen auf hohe Strafen zu verklagen, wenn ihre Technologie bei einem katastrophalen Ereignis eingesetzt wurde. Falls ein Unternehmen rücksichtslos handelt, kann ein Gericht ihm die Einstellung seines Betriebs anordnen; betroffene Modelle müssen außerdem über einen „Kill Switch“ verfügen, mit dem sie abgeschaltet werden können, wenn sie als gefährlich eingestuft werden.

Der Gesetzesentwurf könnte die amerikanische KI-Industrie umgestalten und ist nur noch eine Unterschrift davon entfernt, Gesetz zu werden. So könnte die Zukunft von SB 1047 aussehen.

Warum Newsom es unterzeichnen könnte

Wiener argumentiert, dass Silicon Valley mehr Verantwortung braucht, und sagte zuvor gegenüber Tech, dass Amerika aus seinen vergangenen Versäumnissen bei der Regulierung von Technologie lernen müsse. Newsom könnte motiviert werden, bei der KI-Regulierung entschlossen zu handeln und Big Tech zur Verantwortung zu ziehen.

Einige KI-Führungskräfte, darunter auch Elon Musk, zeigten sich in Bezug auf SB 1047 vorsichtig optimistisch.

Eine weitere vorsichtige Optimistin in Bezug auf SB 1047 ist Sophia Velastegui, ehemalige Chief AI Officer bei Microsoft. Sie sagte gegenüber Tech, dass „SB 1047 ein guter Kompromiss ist“, räumte aber ein, dass der Gesetzentwurf nicht perfekt sei. „Ich denke, wir brauchen ein Büro für verantwortungsvolle KI in Amerika oder in jedem anderen Land, das daran arbeitet. Es sollte nicht nur Microsoft sein“, sagte Velastegui.

Anthropic ist ein weiterer vorsichtiger Befürworter von SB 1047, obwohl das Unternehmen noch keine offizielle Position zu dem Gesetzentwurf eingenommen hat. Mehrere der vom Startup vorgeschlagenen Änderungen wurden in SB 1047 aufgenommen, und CEO Dario Amodei sagt nun, dass die „Vorteile des Gesetzesentwurfs wahrscheinlich die Kosten überwiegen“ in einem Brief an den Gouverneur von Kalifornien. Dank der Änderungen von Anthropic können KI-Unternehmen erst verklagt werden, wenn ihre KI-Modelle katastrophalen Schaden angerichtet haben, und nicht vorher, wie es in einer früheren Version von SB 1047 hieß.

Warum Newsom ein Veto einlegen könnte

Angesichts der lautstarken Opposition der Industrie gegen den Gesetzentwurf wäre es nicht überraschend, wenn Newsom ein Veto einlegen würde. Er würde seinen Ruf an SB 1047 hängen, wenn er ihn unterzeichnet, aber wenn er sein Veto einlegt, könnte er das Problem um ein weiteres Jahr aufschieben oder es dem Kongress überlassen.

„Das [SB 1047] „ändert den Präzedenzfall, für den wir uns seit 30 Jahren mit Softwarerichtlinien befassen“, argumentierte Martin Casado, General Partner von Andreessen Horowitz, in einem Interview mit Tech. „Es verlagert die Haftung von Anwendungen auf die Infrastruktur, was wir nie getan haben.“

Die Tech-Industrie reagierte mit lautstarken Protesten gegen SB 1047. Neben a16z fordern auch Sprecherin Nancy Pelosi, OpenAI, Big-Tech-Branchenverbände und namhafte KI-Forscher Newsom auf, das Gesetz nicht zu unterzeichnen. Sie befürchten, dass dieser Paradigmenwechsel in Sachen Haftung einen abschreckenden Effekt auf die KI-Innovation in Kalifornien haben wird.

Ein abschreckender Effekt auf die Startup-Wirtschaft ist das Letzte, was irgendjemand will. Der KI-Boom war ein enormer Stimulus für die amerikanische Wirtschaft, und Newsom steht unter Druck, diesen nicht zu verspielen. Sogar die US-Handelskammer hat forderte Newsom auf, das Gesetz zu blockierenund schrieb in einem Brief an ihn: „KI ist grundlegend für das Wirtschaftswachstum Amerikas.“

Wenn SB 1047 Gesetz wird

Wenn Newsom das Gesetz unterzeichnet, passiert am ersten Tag nichts, erzählt eine an der Ausarbeitung von SB 1047 beteiligte Quelle Tech.

Bis zum 1. Januar 2025 müssten Technologieunternehmen Sicherheitsberichte für ihre KI-Modelle schreiben. Zu diesem Zeitpunkt könnte der Generalstaatsanwalt von Kalifornien eine einstweilige Verfügung beantragen, die ein KI-Unternehmen dazu verpflichtet, das Training oder den Betrieb seiner KI-Modelle einzustellen, wenn ein Gericht diese für gefährlich hält.

Im Jahr 2026 wird das Gesetz dann weiter in Kraft treten. Dann soll das Board of Frontier Models gegründet werden, das mit der Erfassung von Sicherheitsberichten von Technologieunternehmen beginnen soll. Das neunköpfige Gremium, das vom Gouverneur und dem Parlament Kaliforniens ausgewählt wird, soll dem Generalstaatsanwalt Kaliforniens Empfehlungen dazu geben, welche Unternehmen die Vorschriften einhalten und welche nicht.

Im selben Jahr würde SB 1047 auch die Entwickler von KI-Modellen dazu verpflichten, Auditoren zu engagieren, um ihre Sicherheitspraktiken zu bewerten. Damit würde eine neue Branche für die Einhaltung von KI-Sicherheitsvorschriften geschaffen. Und der Generalstaatsanwalt von Kalifornien könnte KI-Modellentwickler verklagen, wenn ihre Tools bei Katastrophen zum Einsatz kommen.

Bis 2027 könnte das Board of Frontier Models damit beginnen, den Entwicklern von KI-Modellen Leitlinien für die sichere Schulung und den Betrieb von KI-Modellen herauszugeben.

Wenn SB 1047 ein Veto erhält

Wenn Newsom ein Veto gegen SB 1047 einlegt, würden die Wünsche von OpenAI in Erfüllung gehen und die Bundesregulierungsbehörden würden wahrscheinlich irgendwann die Führung bei der Regulierung von KI-Modellen übernehmen.

Am Donnerstag legten OpenAI und Anthropic den Grundstein für eine bundesstaatliche Regulierung der KI. Sie einigten sich darauf, dem AI Safety Institute, einer Bundesbehörde, frühzeitigen Zugang zu ihren fortschrittlichen KI-Modellen zu gewähren, heißt es in einer Pressemitteilung. Gleichzeitig hat OpenAI einen Gesetzentwurf gebilligt, der es dem AI Safety Institute ermöglichen würde, Standards für KI-Modelle festzulegen.

„Aus vielen Gründen halten wir es für wichtig, dass dies auf nationaler Ebene geschieht“, schrieb OpenAI-CEO Sam Altman in einem twittern am Donnerstag.

Zwischen den Zeilen liest man, dass Bundesbehörden in der Regel weniger belastende Regulierungen im Technologiebereich erlassen als Kalifornien und dafür deutlich länger brauchen. Aber darüber hinaus war Silicon Valley historisch ein wichtiger taktischer und geschäftlicher Partner für die US-Regierung.

„Es gibt tatsächlich eine lange Geschichte hochmoderner Computersysteme, die mit der Regierung zusammenarbeiten“, sagte Casado. „Als ich für die nationalen Labors arbeitete, ging jedes Mal, wenn ein neuer Supercomputer herauskam, die allererste Version an die Regierung. Wir haben das gemacht, damit die Regierung über die erforderlichen Kapazitäten verfügt, und ich denke, das ist ein besserer Grund als Sicherheitstests.“

tch-1-tech