OpenAI erweitert den Zugriff auf DALL-E 2, sein leistungsstarkes bildgenerierendes KI-System – Tech

OpenAI erweitert den Zugriff auf DALL E 2 sein leistungsstarkes bildgenerierendes

Heute ist es DALL-E 2, das KI-System von OpenAI, das Bilder nach Aufforderung generieren oder vorhandene Bilder bearbeiten und verfeinern kann breiter verfügbar werden. Das Unternehmen kündigte in einem Blogbeitrag an, dass es den Zugang für Kunden auf der Warteliste beschleunigen wird, mit dem Ziel, in den nächsten Wochen etwa 1 Million Menschen zu erreichen.

Mit dieser „Beta“-Einführung wird DALL-E 2, das zuvor kostenlos genutzt werden konnte, zu einer kreditbasierten Zahlungsstruktur übergehen. Erstbenutzer erhalten eine begrenzte Anzahl von Credits – 115, gut für 460 Bilder – die zum Generieren oder Bearbeiten eines Bildes oder zum Erstellen einer Variation eines generierten Bildes verwendet werden können. (Generationen geben vier Bilder zurück, während Bearbeitungen und Variationen drei zurückgeben.) Credits werden jeden Monat wieder aufgefüllt, oder Benutzer können weitere Credits in Schritten von 15 $ kaufen. Bilder, die gegen die Inhaltsrichtlinie von OpenAI verstoßen, verwenden keine Credits, da das System verhindert, dass sie geteilt werden.

Künstler, die finanzielle Unterstützung benötigen, können dies tun anwenden für subventionierten Zugang, sagt OpenAI.

Der Nachfolger von DALL-E, DALL-E 2, wurde im April angekündigt und wurde Anfang dieses Jahres für eine ausgewählte Gruppe von Benutzern verfügbar Kreuzung die 100.000-Benutzer-Schwelle. OpenAI sagt, dass der breitere Zugang durch neue Ansätze zur Minderung von Voreingenommenheit und Toxizität in den Generationen von DALL-E 2 sowie durch Entwicklungen in der Politik zur Regelung der vom System erstellten Bilder ermöglicht wurde.

OpenAI DALL-E 2

Ein Beispiel für die Arten von Bildern, die DALL-E 2 erzeugen kann.

Zum Beispiel sagte OpenAI, dass es diese Woche eine Technik eingesetzt hat, die DALL-E 2 dazu ermutigt, Bilder von Menschen zu erzeugen, die „die Vielfalt der Weltbevölkerung genauer widerspiegeln“, wenn eine Eingabeaufforderung gegeben wird, die eine Person mit einer nicht spezifizierten Rasse oder einem Geschlecht beschreibt. Das Unternehmen auch sagte dass es jetzt Bild-Uploads mit realistischen Gesichtern und Versuche ablehnt, das Abbild von Persönlichkeiten des öffentlichen Lebens, einschließlich prominenter Politiker und Prominenter, zu erstellen, während es die Genauigkeit seiner Inhaltsfilter verbessert.

Im Großen und Ganzen erlaubt OpenAI nicht, dass DALL-E 2 verwendet wird, um Bilder zu erstellen, die nicht „G-bewertet“ sind oder die „Schaden verursachen“ könnten (z. B. Bilder von Selbstverletzung, hasserfüllten Symbolen oder illegalen Aktivitäten). . Und es erlaubte zuvor die Verwendung von generierten Bildern für kommerzielle Zwecke. Ab heute gewährt OpenAI den Benutzern jedoch „volle Nutzungsrechte“ zur Kommerzialisierung der Bilder, die sie mit DALL-E 2 erstellen, einschließlich des Rechts zum Nachdruck, Verkauf und Verkauf – einschließlich der Bilder, die sie während der frühen Vorschau erstellt haben.

Wie von DALL-E 2-Derivaten wie Craiyon (ehemals DALL-E mini) und dem demonstriert ungefiltert DALL-E 2 selbst kann die bilderzeugende KI sehr leicht die Verzerrungen und Toxizitäten erkennen, die in den Millionen von Bildern aus dem Internet eingebettet sind, mit denen sie trainiert wurden. Der Futurismus konnte prompt Craiyon, um Bilder von brennenden Kreuzen und Ku-Klux-Klan-Kundgebungen zu erstellen, und stellte fest, dass das System rassistische Annahmen über Identitäten auf der Grundlage von „ethnisch klingenden“ Namen machte. OpenAI-Forscher notiert in einer wissenschaftlichen Arbeit, dass eine Open-Source-Implementierung von DALL-E darauf trainiert werden könnte, stereotype Assoziationen wie das Generieren von Bildern von vorbeigehenden Männern in Geschäftsanzügen für Begriffe wie „CEO“ herzustellen.

Während die von OpenAI gehostete Version von DALL-E 2 mit einem Datensatz trainiert wurde, der gefiltert wurde, um Bilder zu entfernen, die offensichtlich gewalttätige, sexuelle oder hasserfüllte Inhalte enthielten, hat die Filterung ihre Grenzen. Google sagte kürzlich, dass es ein von ihm entwickeltes KI-generierendes Modell, Imagen, aufgrund von Missbrauchsrisiken nicht veröffentlichen würde. In der Zwischenzeit hat Meta den Zugang zu Make-A-Scene, seinem kunstorientierten Bilderzeugungssystem, auf „prominente KI-Künstler“ beschränkt.

OpenAI betont, dass der gehostete DALL-E 2 andere Sicherheitsvorkehrungen enthält, darunter „automatisierte und menschliche Überwachungssysteme“, um zu verhindern, dass sich Dinge wie das Modell Gesichter merken, die häufig im Internet erscheinen. Dennoch gibt das Unternehmen zu, dass es noch mehr zu tun gibt.

„Die Erweiterung des Zugriffs ist ein wichtiger Teil unseres verantwortungsvollen Einsatzes von KI-Systemen, da wir so mehr über die Verwendung in der realen Welt erfahren und unsere Sicherheitssysteme weiter optimieren können“, schrieb OpenAI in einem Blogbeitrag. „Wir erforschen weiterhin, wie KI-Systeme wie DALL-E Verzerrungen in ihren Trainingsdaten widerspiegeln und wie wir sie auf verschiedene Weise angehen können.“



tch-1-tech