NIST startet eine neue Plattform zur Bewertung generativer KI

NIST startet eine neue Plattform zur Bewertung generativer KI

Das National Institute of Standards and Technology (NIST), die Behörde des US-Handelsministeriums, die Technologien für die US-Regierung, Unternehmen und die breite Öffentlichkeit entwickelt und testet, gab am Montag den Start von NIST GenAI bekannt, einem neuen Programm unter Federführung des NIST zur Bewertung generativer Technologien KI-Technologien einschließlich text- und bildgenerierender KI.

NIST GenAI wird Benchmarks veröffentlichen, bei der Entwicklung von Systemen zur Erkennung der „Inhaltsauthentizität“ (d. h. Deepfake-Prüfung) helfen und die Entwicklung von Software fördern, um die Quelle gefälschter oder irreführender KI-generierter Informationen zu erkennen, erklärt NIST dazu neu gestartete NIST GenAI-Website und in einem Pressemitteilung.

„Das NIST GenAI-Programm wird eine Reihe von Herausforderungsaufgaben herausgeben, die darauf abzielen, die Fähigkeiten und Grenzen generativer KI-Technologien zu bewerten und zu messen“, heißt es in der Pressemitteilung. „Diese Bewertungen werden verwendet, um Strategien zur Förderung der Informationsintegrität zu identifizieren und den sicheren und verantwortungsvollen Umgang mit digitalen Inhalten zu steuern.“

Das erste Projekt von NIST GenAI ist eine Pilotstudie zum Aufbau von Systemen, die zuverlässig den Unterschied zwischen von Menschen erstellten und von KI generierten Medien erkennen können, beginnend mit Text. (Während viele Dienste behaupten, Deepfakes zu erkennen, haben Studien und unsere eigenen Tests gezeigt, dass sie unzuverlässig sind, insbesondere wenn es um Text geht.) NIST GenAI lädt Teams aus Wissenschaft, Industrie und Forschungslabors ein, entweder „Generatoren“ – KI-Systeme – einzureichen um Inhalte zu generieren – oder „Diskriminatoren“, das sind Systeme, die versuchen, KI-generierte Inhalte zu identifizieren.

Generatoren in der Studie müssen Zusammenfassungen generieren, vorausgesetzt ein Thema und eine Reihe von Dokumenten, während Diskriminatoren erkennen müssen, ob eine bestimmte Zusammenfassung von der KI geschrieben wurde. Um Gerechtigkeit zu gewährleisten, wird NIST GenAI die Daten bereitstellen, die zum Trainieren von Generatoren und Diskriminatoren erforderlich sind. Systeme, die auf öffentlich verfügbaren Daten trainiert wurden, werden nicht akzeptiert, einschließlich, aber nicht beschränkt auf offene Modelle wie Metas Llama 3.

Die Registrierung für das Pilotprojekt beginnt am 1. Mai. Die Veröffentlichung der Ergebnisse ist für Februar 2025 geplant.

Der Start und die Deepfake-fokussierte Studie von NIST GenAI erfolgen zu einer Zeit, in der Deepfakes exponentiell zunehmen.

Nach Angaben von Clarity, einem Deepfake-Erkennungsunternehmen, wurden in diesem Jahr 900 % mehr Deepfakes erstellt als im gleichen Zeitraum des Vorjahres. Es löst verständlicherweise Alarm aus. A jüngste Umfrage von YouGov hat das herausgefunden 85 % der Amerikaner sagten, sie seien besorgt über die Verbreitung irreführender Deepfakes im Internet.

Die Einführung von NIST GenAI ist Teil der Reaktion des NIST auf die Durchführungsverordnung von Präsident Joe Biden zu KI, die Regeln festlegte, die von KI-Unternehmen mehr Transparenz über die Funktionsweise ihrer Modelle verlangen, und eine Reihe neuer Standards festlegte, unter anderem für die Kennzeichnung von durch KI generierten Inhalten .

Es ist auch die erste KI-bezogene Ankündigung des NIST nach der Ernennung von Paul Christiano, einem ehemaligen OpenAI-Forscher, zum AI Safety Institute der Agentur.

Christiano war wegen seiner „doomeristischen“ Ansichten eine umstrittene Wahl; er einmal vorhergesagt dass „die Wahrscheinlichkeit, dass die KI-Entwicklung enden könnte, bei 50 % liegt.“ [humanity’s destruction].“ Kritikzu denen Berichten zufolge auch Wissenschaftler des NIST gehören, befürchten, dass Cristiano das AI Safety Institute dazu ermutigen könnte, sich auf „Fantasieszenarien“ statt auf realistische, unmittelbarere Risiken durch KI zu konzentrieren.

NIST sagt, dass NIST GenAI die Arbeit des AI Safety Institute beeinflussen wird.

tch-1-tech