OpenAI verändert die Ausbilder von KI -Modellen, um „intellektuelle Freiheit ausdrücklich zu betrachten… egal wie herausfordernd oder kontrovers ein Thema sein mag“, sagt das Unternehmen in einer neuen Politik.
Infolgedessen wird ChatGPT irgendwann in der Lage sein, weitere Fragen zu beantworten, mehr Perspektiven anzubieten und die Anzahl der Themen zu reduzieren, über die der KI -Chatbot nicht spricht.
Die Veränderungen sind möglicherweise Teil von OpenAs Bemühungen, in den guten Gnaden der neuen Trump -Regierung zu landen, aber es scheint auch Teil einer breiteren Veränderung im Silicon Valley und dem, was als „Sicherheit“ angesehen wird.
Am Mittwoch Openai angekündigt ein Update für seine Modellspezifikationein 187-seitiges Dokument, in dem dargelegt wird, wie das Unternehmen KI-Modelle ausbildert, um sich zu verhalten. Darin enthüllte Openai ein neues Leitprinzip: Lügen Sie nicht, entweder wenn unwahre Aussagen abgeben oder einen wichtigen Kontext weglassen.
In einem neuen Abschnitt mit dem Titel „Together The Truth“ sagt Openai, dass Chatgpt keine redaktionelle Haltung einnimmt, auch wenn einige Benutzer diese moralisch falsch oder beleidigend finden. Das bedeutet, dass ChatGPT mehrere Perspektiven auf kontroverse Themen anbietet, um neutral zu sein.
Zum Beispiel sagt das Unternehmen, dass Chatgpt behaupten sollte, dass „Black Lives Matter“, aber auch, dass „alle Leben von Bedeutung sind“. Anstatt sich zu weigern, in politischen Themen eine Seite zu beantworten oder auszuwählen, möchte Openai, dass Chatgpt ihre „Liebe zur Menschheit“ allgemein bestätigt und dann einen Kontext über jede Bewegung anbietet.
„Dieses Prinzip kann kontrovers sein, da dies bedeutet, dass der Assistent zu Themen neutral bleiben kann, die einige moralisch falsch oder beleidigend halten“, sagt Openai in der Spezifikation. „Das Ziel eines KI -Assistenten ist es jedoch, der Menschheit zu helfen und ihn nicht zu formen.“
Diese Veränderungen könnten als Reaktion auf konservative Kritik an den Schutzmaßnahmen von Chatgpt angesehen werden, die immer in der Mitte links verzerrt waren. Ein OpenAI -Sprecher lehnt jedoch die Idee ab, dass es Änderungen vorgenommen hat, um die Trump -Administration zu beschwichtigen.
Stattdessen spiegelt das Unternehmen an, dass seine Umarmung der intellektuellen Freiheit OpenAIs „lang gehegten Glauben, den Benutzern mehr Kontrolle“ zu geben.
Aber nicht jeder sieht es so.
Konservative beanspruchen KI -Zensur
Trumps engste Silicon Valley -Vertraute – darunter David Sacks, Marc Andreessen und Elon Musk – haben Openai beschuldigt, in den letzten Monaten gezielte KI -Zensur einzuhalten. Wir haben im Dezember geschrieben, dass Trumps Crew die Voraussetzungen für die KI -Zensur als nächste Kulturkriegsproblem im Silicon Valley bereitete.
Openai sagt natürlich nicht, dass es sich mit „Zensur“ befasst, wie Trumps Berater behaupten. Vielmehr behauptete der CEO des Unternehmens, Sam Altman, zuvor in a Post auf x Die Voreingenommenheit von Chatgpt war ein unglücklicher „Mangel“, an dem das Unternehmen gearbeitet hat, obwohl er feststellte, dass es einige Zeit dauern würde.
Altman machte diesen Kommentar kurz nach a Viraler Tweet verbreitet, in dem Chatgpt sich weigerte, ein Gedicht zu schreiben, in dem Trump gelobt wird, obwohl es die Aktion für Joe Biden ausführen würde. Viele Konservative wiesen dies als Beispiel für die KI -Zensur auf.
Es ist zwar unmöglich zu sagen, ob Openai bestimmte Sichtweisen wirklich unterdrückt, aber es ist eine schiere Tatsache, dass KI -Chatbots auf der ganzen Linie lehnen.
Sogar Elon Musk gibt zu, dass Xais Chatbot oft mehr ist politisch korrekt als er möchte. Es liegt nicht daran, dass Grok „programmiert wurde, aufgewacht zu werden“, sondern eher eine Realität der Trainings von KI im offenen Internet.
Trotzdem sagt Openai jetzt, dass es sich in der Redefreiheit verdoppelt. Diese Woche hat das Unternehmen sogar Warnungen von ChatGPT entfernt, die den Nutzern mitgeteilt haben, wenn sie gegen seine Richtlinien verstoßen haben. OpenAI sagte Tech, dass dies eine rein kosmetische Veränderung war, ohne dass sich die Ausgaben des Modells ändern.
Das Unternehmen sagte, es wolle Chatgpt für Benutzer weniger zensiert fühlen.
Es wäre nicht überraschend, wenn OpenAI auch versuchen würde, die neue Trump -Administration mit diesem politischen Update zu beeindrucken, stellt der frühere OpenAI -Politikführer Miles Brundage in einem fest Post auf X.
Trump hat zuvor gezielte Silicon Valley -Unternehmenwie Twitter und Meta, für aktive Inhalts Moderationsteams, die tendenziell konservative Stimmen ausschließen.
Openai versucht möglicherweise, vor dem auszusteigen. Aber im Silicon Valley und in der KI -Welt gibt es auch eine größere Verschiebung über die Rolle der Inhalts Moderation.
Antworten auf bitte alle generieren

Newsrooms, Social -Media -Plattformen und Suchfirmen haben historisch Schwierigkeiten, ihrem Publikum Informationen auf eine Weise zu liefern, die sich objektiv, genau und unterhaltsam anfühlt.
Jetzt sind AI -Chatbot -Anbieter im gleichen Geschäftsinformationsgeschäft, aber wohl die bisher schwerste Version dieses Problems: Wie generieren sie automatisch Antworten auf eine Frage?
Die Bereitstellung von Informationen über kontroverse Echtzeit-Ereignisse ist ein ständig bewegendes Ziel, und es beinhaltet die Aufnahme von Redaktionsstellen, auch wenn Technologieunternehmen es nicht gerne zugeben. Diese Standpunkte müssen jemanden verärgern, die Perspektive einer Gruppe vermissen oder einer politischen Partei zu viel Luft geben.
Wenn Openai beispielsweise dazu verpflichtet, ChatGPT alle Perspektiven zu kontroversen Themen – einschließlich Verschwörungstheorien, rassistischen oder antisemitischen Bewegungen oder geopolitischen Konflikten – darzustellen, ist dies von Natur aus eine redaktionelle Haltung.
Einige, darunter der Mitbegründer von OpenA, John Schulman, argumentieren, dass es für Chatgpt die richtige Haltung ist. Die Alternative-eine Kosten-Nutzen-Analyse durchzuführen, um festzustellen, ob ein KI-Chatbot die Frage eines Benutzers beantworten sollte-könnte „der Plattform zu viel moralische Autorität geben“, bemerkt Schulman in einem Post auf X.
Schulman ist nicht allein. „Ich denke, Openai hat Recht, in Richtung mehr Sprache in Richtung mehr Sprache zu treiben“, sagte Dean Ball, Research Fellow am Mercatus Center der George Mason University, in einem Interview mit Tech. „Wenn KI -Modelle für die Art und Weise, wie Menschen über die Welt lernen, intelligenter und wichtiger werden, werden diese Entscheidungen einfach wichtiger.“
In den vergangenen Jahren haben AI -Modellanbieter versucht, ihre KI -Chatbots daran zu hindern, Fragen zu beantworten, die zu „unsicheren“ Antworten führen könnten. Fast jedes KI -Unternehmen hat ihren KI -Chatbot davon abgehalten, Fragen zu den Wahlen 2024 für US -Präsident zu beantworten. Dies wurde damals weithin als sichere und verantwortungsbewusste Entscheidung angesehen.
OpenAIs Änderungen an der Modellspezifikation legen jedoch nahe, dass wir möglicherweise in eine neue Ära eintreten, was „KI -Sicherheit“ wirklich bedeutet, in dem ein KI -Modell es ermöglicht, alles zu beantworten, und alles ist als verantwortungsbewusster als Entscheidungen für Benutzer.
Ball sagt, dass dies teilweise darauf zurückzuführen ist, dass KI -Modelle jetzt einfach besser sind. OpenAI hat erhebliche Fortschritte bei der Ausrichtung des KI -Modells erzielt. Die neuesten Argumentationsmodelle denken vor der Beantwortung über die KI -Sicherheitsrichtlinie des Unternehmens nach. Auf diese Weise können KI -Modelle bessere Antworten auf heikle Fragen geben.
Natürlich war Elon Musk der erste, der „Redefreiheit“ in Xais Grok Chatbot implementierte, vielleicht bevor das Unternehmen wirklich bereit war, sensible Fragen zu bearbeiten. Es mag immer noch zu früh sein, KI -Modelle zu leiten, aber jetzt nehmen andere dieselbe Idee an.
Verschiebungswerte für Silicon Valley
Mark Zuckerberg hat im vergangenen Monat Wellen geschlagen, indem er die Geschäfte von Meta zu den Prinzipien der ersten Änderung neu ausgerichtet hat. Er lobte in diesem Prozess Elon Musk und sagte, der Eigentümer von X habe den richtigen Ansatz gewesen, indem er Community-Notizen-ein Community-gesteuerte Inhalts-Moderationsprogramm-verwendet hat, um die Redefreiheit zu schützen.
In der Praxis haben sowohl X als auch Meta ihre langjährigen Vertrauens- und Sicherheitsteams abgebaut, sodass kontroverse Beiträge auf ihren Plattformen und konservative Stimmen verstärkt wurden.
Veränderungen bei X haben seine Beziehungen zu Werbetreibenden verletzt, aber das hat möglicherweise mehr damit zu tun Moschuswer hat das genommen ungewöhnlicher Schritt einige von ihnen wegen Boykotts der Plattform zu verklagen. Frühe Anzeichen zeigen, dass die Werbetreibenden von Meta von Zuckerbergs Redefreiheit unbeeindruckt waren.
In der Zwischenzeit sind viele Technologieunternehmen jenseits von X und Meta von linksgerichteten Richtlinien zurückgegangen, die das Silicon Valley in den letzten Jahrzehnten dominierten. Google, Amazon und Intel haben Diversity -Initiativen im letzten Jahr beseitigt oder skalierte Diversity -Initiativen.
Openai kann auch den Kurs umkehren. Der Chatgpt-Hersteller scheint kürzlich ein Engagement für Vielfalt, Eigenkapital und Aufnahme von seiner Website geschrubbt zu haben.
Während OpenAI eines der größten amerikanischen Infrastrukturprojekte aller Zeiten mit Stargate, einem AI -Datacenter in Höhe von 500 Milliarden US -Dollar, einsetzt, ist die Beziehung zur Trump -Verwaltung immer wichtiger. Gleichzeitig wetteifert der Chatgpt -Hersteller um die dominierende Informationsquelle im Internet.
Die richtigen Antworten zu finden, kann sich für beide als Schlüssel erweisen.