Hunderte von KI-Koryphäen unterzeichnen einen Brief, in dem sie eine Anti-Deepfake-Gesetzgebung fordern

Hunderte in der Community der künstlichen Intelligenz haben es getan unterzeichnete einen offenen Brief, in dem eine strenge Regulierung von KI-generierten Identitätsfälschungen oder Deepfakes gefordert wird. Obwohl es unwahrscheinlich ist, dass dies eine echte Gesetzgebung vorantreibt (trotz der neuen Task Force des Repräsentantenhauses), dient es doch als Anhaltspunkt dafür, wie Experten sich zu diesem kontroversen Thema verhalten.

In dem Brief, der zum Zeitpunkt der Veröffentlichung von über 500 Personen aus dem KI-Bereich und angrenzenden Bereichen unterzeichnet wurde, heißt es: „Deepfakes stellen eine wachsende Bedrohung für die Gesellschaft dar und Regierungen müssen in der gesamten Lieferkette Verpflichtungen auferlegen, um die Verbreitung von Deepfakes zu stoppen.“

Sie fordern die vollständige Kriminalisierung von Deepfake-Materialien zum sexuellen Missbrauch von Kindern (CSAM, auch bekannt als Kinderpornografie), unabhängig davon, ob die abgebildeten Figuren real oder fiktiv sind. Strafrechtliche Sanktionen drohen immer dann, wenn jemand schädliche Deepfakes erstellt oder verbreitet. Und die Entwickler sind aufgefordert, schädliche Deepfakes mit ihren Produkten von vornherein zu verhindern und Strafen zu verhängen, wenn ihre Präventionsmaßnahmen unzureichend sind.

Zu den prominenteren Unterzeichnern des Briefes gehören:

  • Jaron Lanier
  • Frances Haugen
  • Stuart Russell
  • Andrew Yang
  • Marietje Schaake
  • Steven Pinker
  • Gary Marcus
  • Oren Etzioni
  • Genevieve Smith
  • Yoshua Bengio
  • Dan Hendrycks
  • Tim Wu

Ebenfalls anwesend sind Hunderte von Akademikern aus der ganzen Welt und vielen Disziplinen. Falls Sie neugierig sind: Eine Person von OpenAI hat unterschrieben, zwei von Google Deepmind und zum Zeitpunkt der Drucklegung keine von Anthropic, Amazon, Apple oder Microsoft (mit Ausnahme von Lanier, dessen Position dort nicht dem Standard entspricht). Interessanterweise sind sie im Brief nach „Bekanntheit“ sortiert.

Dies ist bei weitem nicht der erste Aufruf zu solchen Maßnahmen; Tatsächlich wurden sie in der EU jahrelang diskutiert, bevor sie Anfang dieses Monats offiziell vorgeschlagen wurden. Vielleicht ist es die Bereitschaft der EU, zu beraten und umzusetzen, die diese Forscher, Schöpfer und Führungskräfte dazu veranlasst hat, sich zu Wort zu melden.

Oder vielleicht liegt es am langsamen Weg von KOSA zur Akzeptanz – und am fehlenden Schutz vor dieser Art von Missbrauch.

Oder vielleicht ist es (wie wir bereits gesehen haben) die Bedrohung durch KI-generierte Betrugsanrufe, die die Wahl beeinflussen oder naive Leute um ihr Geld bringen könnten.

Oder vielleicht ist es die gestrige Task Force, die ohne besondere Agenda angekündigt wurde, außer vielleicht, einen Bericht darüber zu schreiben, was einige KI-basierte Bedrohungen sein könnten und wie sie gesetzlich eingeschränkt werden könnten.

Wie Sie sehen, mangelt es nicht an Gründen dafür, dass die KI-Gemeinschaft hier draußen ist, mit den Armen wedelt und sagt: „Vielleicht sollten wir, wissen Sie, etwas tun?!“

Ob irgendjemand diesen Brief zur Kenntnis nehmen wird, bleibt unklar – niemand hat wirklich auf den berüchtigten Aufruf geachtet, die KI-Entwicklung „anzuhalten“, aber natürlich ist dieser Brief etwas praktischer. Wenn sich die Gesetzgeber dazu entschließen, sich mit dem Thema zu befassen, was angesichts eines Wahljahres mit einem stark gespaltenen Kongress ein unwahrscheinliches Ereignis ist, können sie auf diese Liste zurückgreifen, um die Stimmung in der weltweiten akademischen und Entwicklungsgemeinschaft der KI zu messen.

tch-1-tech