OpenAI hat „ziemlich ausführlich diskutiert und debattiert“, wann ein Tool veröffentlicht werden soll, das feststellen kann, ob ein Bild mit DALL-E 3, dem generativen KI-Kunstmodell von OpenAI, erstellt wurde oder nicht. Doch das Startup steht noch nicht kurz davor, so schnell eine Entscheidung zu treffen.
Das sagt Sandhini Agarwal, ein OpenAI-Forscher mit Schwerpunkt auf Sicherheit und Richtlinien, der diese Woche in einem Telefoninterview mit Tech sprach. Sie sagte, dass die Genauigkeit des Klassifikationstools zwar „wirklich gut“ sei – zumindest ihrer Einschätzung nach – es aber nicht die Qualitätsschwelle von OpenAI erreicht habe.
„Die Frage, ein Tool herauszubringen, ist einigermaßen unzuverlässig, da Entscheidungen, die es treffen könnte, Fotos erheblich beeinflussen könnten, etwa ob ein Werk als von einem Künstler gemalt oder als unecht und irreführend angesehen wird“, sagte Agarwal.
Die Zielgenauigkeit von OpenAI für das Tool scheint außerordentlich hoch zu sein. Mira Murati, Chief Technology Officer von OpenAI, sagte diese Woche auf der Tech Live-Konferenz des Wall Street Journal, dass der Klassifikator zu „99 %“ zuverlässig ist, wenn es darum geht, festzustellen, ob ein unverändertes Foto mit DALL-E 3 erstellt wurde. Vielleicht ist das Ziel 100 %; Agarwal würde es nicht sagen.
Ein mit Tech geteilter Entwurf eines OpenAI-Blogbeitrags enthüllte diesen interessanten Leckerbissen:
„[The classifier] bleibt zu über 95 % genau, wenn [an] Das Bild wurde häufig verändert, etwa durch Zuschneiden, Größenänderung, JPEG-Komprimierung oder wenn Text oder Ausschnitte aus echten Bildern kleine Teile des erzeugten Bildes überlagern.“
Die Zurückhaltung von OpenAI könnte mit der Kontroverse um sein früheres öffentliches Klassifikationstool zusammenhängen, das darauf ausgelegt war, KI-generierten Text nicht nur aus OpenAI-Modellen, sondern auch aus Textgenerierungsmodellen von Drittanbietern zu erkennen. OpenAI zog den von KI geschriebenen Textdetektor wegen seiner „geringen Genauigkeit“ zurück, die vielfach kritisiert wurde.
Agarwal impliziert, dass OpenAI auch mit der philosophischen Frage beschäftigt ist, was genau ein KI-generiertes Bild ausmacht. Von DALL-E 3 komplett neu erstellte Kunstwerke sind selbstverständlich qualifiziert. Aber was ist mit einem Bild aus DALL-E 3, das mehrere Bearbeitungsrunden durchlaufen hat, mit anderen Bildern kombiniert wurde und dann einige Nachbearbeitungsfilter durchlaufen hat? Es ist weniger klar.
„Sollte dieses Bild zu diesem Zeitpunkt als etwas KI-generiertes betrachtet werden oder nicht?“, sagte Agarwal. „Im Moment versuchen wir, diese Frage zu beantworten, und wir möchten wirklich von Künstlern und Menschen hören, die davon erheblich betroffen sind [classifier] Werkzeuge.“
Eine Reihe von Organisationen – nicht nur OpenAI – erforschen Wasserzeichen- und Erkennungstechniken für generative Medien wie KI Deepfakes vermehren.
DeepMind hat kürzlich eine Spezifikation namens SynthID vorgeschlagen, um KI-generierte Bilder auf eine Weise zu markieren, die für das menschliche Auge nicht wahrnehmbar ist, aber von einem speziellen Detektor erkannt werden kann. Das im Jahr 2020 gegründete französische Startup Imatag bietet ein Wasserzeichen-Tool an, von dem es behauptet, dass es nicht durch Größenänderung, Zuschneiden, Bearbeiten oder Komprimieren von Bildern beeinträchtigt wird, ähnlich wie SynthID. Ein weiteres Unternehmen, Steg.AI, verwendet ein KI-Modell, um Wasserzeichen anzubringen, die Größenänderungen und andere Änderungen überstehen.
Das Problem besteht darin, dass sich die Branche noch nicht auf einen einzigen Wasserzeichen- oder Erkennungsstandard einigen kann. Selbst wenn dies der Fall ist, gibt es keine Garantie dafür, dass die Wasserzeichen – und auch die Detektoren – wird nicht sein besiegbar.
Ich habe Agarwal gefragt, ob der Bildklassifikator von OpenAI jemals die Erkennung von Bildern unterstützen würde, die mit anderen, nicht von OpenAI stammenden generativen Tools erstellt wurden. Darauf wollte sie sich nicht festlegen, sagte aber, dass OpenAI – abhängig von der Rezeption des Bildklassifizierungstools, wie es heute existiert – einen Weg in Betracht ziehen würde, diesen auszuloten.
„Einer der Gründe, warum gerade jetzt [the classifier is] DALL-E 3-spezifisch liegt daran, dass es sich technisch gesehen um ein viel besser beherrschbares Problem handelt“, sagte Agarwal. „[A general detector] ist nicht etwas, was wir gerade tun… Aber es kommt darauf an, wo [the classifier tool] geht, ich sage nicht, dass wir es nie tun werden.“