Generative KI: Die Regierung von Biden unternimmt den ersten Schritt zur Ausarbeitung wichtiger KI-Standards

Generative KI Die Regierung von Biden unternimmt den ersten Schritt
WASHINGTON: Die Biden-Regierung sagte am Dienstag, es unternehme den ersten Schritt zur Erstellung wichtiger Standards und Leitlinien für den sicheren Einsatz generativer künstlicher Intelligenz und zum Testen und Schützen von Systemen.
Das National Institute of Standards and Technology (NIST) des Handelsministeriums gab bekannt, dass es bis zum 2. Februar öffentliche Beiträge zur Durchführung wichtiger Tests einholt, die für die Gewährleistung der Sicherheit von entscheidender Bedeutung sind KI-Systeme.
Handelsministerin Gina Raimondo sagte, die Bemühungen seien durch die Durchführungsverordnung von Präsident Joe Biden zum Thema KI vom Oktober angeregt worden und zielten darauf ab, „Industriestandards zu entwickeln“. KI-SicherheitSicherheit und Vertrauen, die es Amerika ermöglichen werden, weiterhin weltweit führend bei der verantwortungsvollen Entwicklung und Nutzung dieser sich schnell entwickelnden Technologie zu sein.“
Die Agentur entwickelt Richtlinien zur Bewertung von KI, erleichtert die Entwicklung von Standards und stellt Testumgebungen zur Bewertung von KI-Systemen bereit. Die Anfrage bittet um Beiträge von KI-Unternehmen und der Öffentlichkeit generative KI Risikomanagement und Reduzierung des Risikos KI-generierter Fehlinformationen.
Generative KI – die als Reaktion auf offene Eingabeaufforderungen Texte, Fotos und Videos erstellen kann – hat in den letzten Monaten sowohl Aufregung als auch Befürchtungen hervorgerufen, dass sie einige Arbeitsplätze überflüssig machen, Wahlen auf den Kopf stellen und möglicherweise Menschen überwältigen und katastrophale Auswirkungen haben könnte.
Bidens Anordnung wies die Behörden an, Standards für diese Tests festzulegen und die damit verbundenen chemischen, biologischen, radiologischen, nuklearen und Cybersicherheitsrisiken anzugehen.
NIST arbeitet an der Festlegung von Richtlinien für Tests, einschließlich der Frage, wo sogenanntes „Red-Teaming“ für die Risikobewertung und das Management von KI am vorteilhaftesten wäre, und an der Festlegung bewährter Verfahren hierfür.
Externes Red-Teaming wird in der Cybersicherheit seit Jahren eingesetzt, um neue Risiken zu identifizieren. Der Begriff bezieht sich auf Simulationen des Kalten Krieges in den USA, in denen der Feind als „rotes Team“ bezeichnet wurde.
Im August fand im Rahmen einer großen Cybersicherheitskonferenz die erste öffentliche „Red-Teaming“-Veranstaltung in den USA statt, die von AI Village, SeedAI und Humane Intelligence organisiert wurde.
Tausende von Teilnehmern versuchten herauszufinden, ob sie „die Systeme dazu bringen könnten, unerwünschte Ergebnisse zu erzeugen oder auf andere Weise zu versagen, mit dem Ziel, die Risiken, die diese Systeme mit sich bringen, besser zu verstehen“, sagte das Weiße Haus.
Die Veranstaltung „zeigte, wie externes Red-Teaming ein wirksames Instrument zur Identifizierung neuartiger KI-Risiken sein kann“, hieß es weiter.

toi-allgemeines