OpenAI schaltet die Schutzmaßnahmen von Chatgpt vor der Bilderstellung zurück

Diese Woche startete Openai einen neuen Image-Generator in Chatgpt, der schnell viral wurde, weil er Bilder im Studio-Ghibli-Stil erstellen konnte. Über die Pastellillustrationen hinaus verbessert der native Bildgenerator von GPT-4O die Funktionen von Chatgpt erheblich und verbessert die Bildbearbeitung, das Rendern von Text und die räumliche Darstellung.

Eine der bemerkenswertesten Änderungen, die Openai in dieser Woche vorgenommen hat, umfasst jedoch die Richtlinien für die Moderation von Inhalten, die es nun Chatgpt ermöglichen, auf Anfrage Bilder zu generieren, die öffentliche Figuren, hasserfüllte Symbole und rassistische Merkmale darstellen.

OpenAI lehnte diese Art von Anforderungen, die zu kontrovers oder schädlich sind, zuvor ab. Aber jetzt hat das Unternehmen laut a seinen Ansatz „weiterentwickelt“ Blog -Beitrag Veröffentlicht am Donnerstag von OpenAIs Modellverhaltensleiter Joanne Jang.

„Wir verlagern von Deckenablehnungen in empfindlichen Bereichen zu einem genaueren Ansatz, der sich auf die Verhinderung von Schaden in der realen Welt konzentriert“, sagte Jang. „Das Ziel ist es, Demut anzunehmen: zu erkennen, wie viel wir nicht wissen, und uns zu positionieren, um uns so anzupassen, wie wir lernen.“

Diese Anpassungen scheinen Teil des größeren Plans von OpenAI zu sein, um effektiv „unzussesor“ Chatgpt zu „unzusammenwaren“. OpenAI kündigte im Februar an, dass es sich um die Ausbildung von KI -Modellen ändern soll, mit dem ultimativen Ziel, Chatgpt mehr Anfragen zu erledigen, verschiedene Perspektiven anzubieten und Themen zu reduzieren, mit denen der Chatbot verweigert, zu arbeiten.

Nach der aktualisierten Richtlinie kann ChatGPT nun Bilder von Donald Trump, Elon Musk und anderen öffentlichen Persönlichkeiten erstellen und ändern, die Openai zuvor nicht zugelassen haben. Jang sagt, Openai möchte nicht der Schiedsrichter des Status sein und wählen, wer von ChatGPT generiert werden sollte und nicht. Stattdessen gibt das Unternehmen den Benutzern eine Opt-out-Option, wenn es nicht möchte, dass Chatgpt sie zeigt.

In a Weißes Papier OpenAI veröffentlichte am Dienstag, sagte OpenAI, es werde es Chatgpt -Benutzern ermöglichen, „hasserfüllte Symbole“ wie Hakenkreuze in pädagogischen oder neutralen Kontexten zu generieren, solange sie extremistische Agenden nicht klar loben oder befürworten.

Darüber hinaus verändert OpenAI, wie es „beleidigende“ Inhalte definiert. Jang sagt, Chatgpt habe Anfragen zu physischen Eigenschaften abgelehnt, z. B. „die Augen dieser Person asiatisch aussehen“ oder „diese Person schwerer machen“. Bei den Tests von Tech haben wir festgestellt, dass der neue Image -Generator von Chatgpt diese Art von Anfragen erfüllt.

Darüber hinaus kann Chatgpt nun die Stile kreativer Studios wie Pixar oder Studio Ghibli nachahmen, beschränkt jedoch immer noch die Stile der individuellen lebenden Künstler. Wie Tech bereits bemerkte, könnte dies eine vorhandene Debatte über den fairen Gebrauch von urheberrechtlich geschützten Arbeiten in KI -Trainingsdatensätzen wiederholen.

Es ist erwähnenswert, dass OpenAI die Schleusen nicht vollständig öffnet, um Missbrauch zu haben. Der native Bildgenerator von GPT-4O lehnt nach wie vor viele sensible Fragen ab, und tatsächlich gibt es mehr Schutzmaßnahmen zum Erzeugen von Bildern von Kindern als Dall-E 3, Chatgpts früherer AI-Bildgenerator, lautet GPT-4O-Weißes Papier.

OpenAI entspannt jedoch seine Leitplanken in anderen Gebieten nach Jahren konservativer Beschwerden in Bezug auf die mutmaßliche KI -Zensur von Silicon Valley Companies. Google hatte zuvor gegen Geminis KI -Imagegenerator gegen Multirassische Bilder für Abfragen wie „US -Gründerväter“ und „deutsche Soldaten im Zweiten Weltkrieg“ konfrontiert, die offensichtlich ungenau waren.

Jetzt könnte der Kulturkrieg um die Mäßigung von KI -Inhalten in den Kopf kommen. Anfang dieses Monats sandte der republikanische Kongressabgeordnete Jim Jordan Fragen an Openai, Google und andere Tech-Giganten über potenzielle Absprachen mit der Biden-Verwaltung, um Inhalte von AI-generierten Zensur zu zensieren.

In einer früheren Erklärung zu Tech lehnte OpenAI die Idee ab, dass seine Veränderungen der Inhalte politisch motiviert waren. Das Unternehmen sagt vielmehr, dass die Verschiebung einen „lang gehegten Glauben an den Benutzern mehr Kontrolle“ widerspiegelt, und die Technologie von OpenAI wird gerade gut genug, um sensible Themen zu navigieren.

Unabhängig von seiner Motivation ist es sicherlich eine gute Zeit für OpenAI, seine Richtlinien für die Mäßigung von Inhalten zu ändern, da sie unter der Trump -Administration eine regulatorische Prüfung untersuchen kann. Silicon Valley Giants wie Meta und X haben ebenfalls ähnliche Richtlinien übernommen, die auf ihren Plattformen kontroverse thexemische Themen ermöglichen.

Während OpenAIs neuer Bildgenerator bisher nur einige virale Studio -Ghibli -Memes erstellt hat, ist unklar, welche Auswirkungen diese Richtlinien aussehen werden. Die jüngsten Änderungen von Chatgpt können bei der Trump -Administration gut übergehen, aber wenn ein KI -Chatbot sensible Fragen beantworten kann, könnte er bald genug in heißem Wasser landen.

tch-1-tech