Die von Fei-Fei Li geleitete Gruppe schlägt vor, dass KI-Sicherheitsgesetze zukünftige Risiken vorhersehen sollten

In einem neuen Bericht schlägt eine in Kalifornien ansässige politische Gruppe von Fei-Fei Li, einem AI-Pionier, vor, dass der Gesetzgeber KI-Risiken berücksichtigen sollte, die „auf der Welt noch nicht beobachtet wurden“, wenn AI-Regulierungsrichtlinien erstellt wurden.

Der 41-seitiger Zwischenbericht Das am Dienstag veröffentlichte Arbeitsgruppe für die gemeinsame kalifornische Policy -Arbeitsgruppe für Frontier -KI -Modelle stammt aus dem von Gouverneur Gavin Newsom nach seinem Veto des kontroversen KI -Sicherheitsgesetzes in Kalifornien, SB 1047, organisierten Anstrengungen. Während Newsom feststellte, dass SB 1047 die Marke verpasste, gab er im vergangenen Jahr die Notwendigkeit einer umfangreicheren Bewertung von AI -Gewehren zu, die Leglatoren informiert.

In dem Bericht argumentiert Li, die Co-Autoren UC Berkeley College of Computing Dean Jennifer Chayes und Carnegie-Stiftung für den internationalen Friedenspräsident Mariano-Florentino Cuéllar, für Gesetze, die die Transparenz in das, was Grenz-AI-Labors wie OpenAI bauen, erhöhen würden. Branchenstakeholder aus dem gesamten ideologischen Spektrum überprüften den Bericht vor seiner Veröffentlichung, einschließlich der staunen KI-Sicherheitsanwälte wie dem Turing-Preisträger Yoshua Benjio sowie denjenigen, die gegen SB 1047 argumentierten, wie z. B. Mitbegründer von Databricks, Ion Stoica.

Dem Bericht zufolge können die neuartigen Risiken von KI -Systemen Gesetze erfordern, die KI -Modellentwickler dazu zwingen würden, ihre Sicherheitstests, Datenerfassungspraktiken und Sicherheitsmaßnahmen öffentlich zu melden. Der Bericht setzt sich außerdem für erhöhte Standards in Bezug auf die Bewertung dieser Metriken und Unternehmensrichtlinien von Drittanbietern ein, zusätzlich zu dem erweiterten Schutz von Whistleblower für Mitarbeiter und Auftragnehmer von AI-Unternehmen.

Li et al. Schreiben Sie, es gibt ein „nicht eindeutiges Beweisniveau“ für das Potenzial von AI, Cyberangriffe durchzuführen, biologische Waffen zu erstellen oder andere „extreme“ Bedrohungen herbeizuführen. Sie argumentieren jedoch auch, dass die KI -Richtlinie nicht nur die aktuellen Risiken eingehen sollte, sondern zukünftigen Konsequenzen, die ohne ausreichende Schutzmaßnahmen auftreten könnten, vorwegnehmen sollten.

„Zum Beispiel müssen wir keine Atomwaffe beobachten [exploding] Zuverlässig vorherzusagen, dass es umfassende Schäden verursachen könnte und würde „, heißt es in dem Bericht.

Der Bericht empfiehlt eine zweigleisige Strategie, um die Transparenz der KI-Modellentwicklung zu steigern: Vertrauen, aber überprüfen. KI-Modellentwickler und ihre Mitarbeiter sollten Wege erhalten, um über öffentliche Besorgnisbereiche zu berichten, wie z. B. interne Sicherheitstests, und gleichzeitig die Einreichung von Testansprüchen für die Überprüfung von Drittanbietern verpflichtet sind.

Während der Bericht, dessen endgültige Version im Juni 2025 erscheinen wird, keine spezifische Gesetzgebung befürwortet.

Dean Ball, ein AI-fokussierter wissenschaftlicher Fellow an der George Mason University, der sich gegen SB 1047 kritisierte, sagte in einem Beitrag auf X, dass der Bericht sei ein vielversprechender Schritt für die kalifornische KI -Sicherheitsregulierung. Laut Scott Wiener, Senator des kalifornischen Bundesstaates California State, ist es auch ein Sieg für SB 1047, der im vergangenen Jahr SB 1047 eingeführt hat. Wiener sagte in einer Pressemitteilung, dass der Bericht auf „dringenden Gesprächen um die KI -Governance, die wir in der Gesetzgebung begonnen haben [in 2024]. ““

Der Bericht scheint sich mit mehreren Komponenten von SB 1047 und Wieners Follow-up-Rechnung SB 53 zu übereinstimmen, z. Einen Sichtweise scheint ein dringend benötigter Sieg für KI-Sicherheitsleute zu sein, deren Agenda im letzten Jahr den Boden verloren hat.

tch-1-tech