Um einen Tag der Produktveröffentlichungen, OpenAI -Forscher, Ingenieure und Führungskräfte, einschließlich des OpenAI -CEO Sam Altman, zu beenden, beantwortete Fragen in einem weitreichende Reddit Ama am Freitag.
Openai Das Unternehmen befindet sich in einer prekären Position. Es kämpft gegen die Wahrnehmung, dass es im KI -Rennen auf chinesische Unternehmen wie Deepseek, das Openai behauptet, seine IP gestohlen zu haben. Der Chatgpt -Hersteller hat es versucht stützt seine Beziehung zu Washington und gleichzeitig ein ehrgeiziges Rechenzentrumsprojekt durchführen, während sie Berichten zufolge Grundlagen für eine der größten Finanzierungsrunden der Geschichte legen.
Altman gab zu, dass Deepseek Openais Vorsprung in der KI verringert hat, und er glaube auch, dass Openai „auf der falschen Seite der Geschichte“ war, wenn es um Open-Sourcing-Technologien geht. Während OpenAI in der Vergangenheit Open-Sourced-Modelle hat, hat das Unternehmen im Allgemeinen einen proprietären Ansatz für geschlossene Quellen bevorzugt.
“[I personally think we need to] Finden Sie eine andere Open -Source -Strategie heraus “, sagte Altman. „Nicht jeder von OpenAI teilt diese Ansicht und es ist auch nicht unsere aktuelle höchste Priorität […] Wir werden bessere Modelle produzieren [going forward]aber wir werden weniger Führung haben als in den Vorjahren. “
In einer Follow-up-Antwort sagte Kevin Weil, Chief Product Officer von OpenAI, dass OpenAI über Open-Sour-Modelle nachdenkt, die nicht mehr auf dem neuesten Stand der Technik sind. „Wir werden definitiv darüber nachdenken, mehr davon zu tun“, sagte er, ohne sich detaillierter auszusetzen.
Altman war nicht mehr offen zu sein, seine Veröffentlichungsphilosophie zu überdenken, und sagte, dass Deepseek das Unternehmen dazu veranlasst habe, möglicherweise mehr darüber zu zeigen, wie seine sogenannten Argumentationsmodelle wie das heute veröffentlichte O3-Mini-Modell ihren „Gedankenprozess“ zeigen. Derzeit verbergen die Modelle von OpenAI ihre Argumentation, eine Strategie, um die Wettbewerber daran zu hindern, Schulungsdaten für ihre eigenen Modelle zu kratzen. Im Gegensatz dazu zeigt Deepseeks Argumentationsmodell R1 seine vollständige Denkkette.
„Wir arbeiten daran, ein Haufen mehr zu zeigen, als wir heute zeigen – [showing the model thought process] werde sehr bald sein “, fügte Weil hinzu. „TBD in allen – wenn man alle Gedankenkette zeigt, führt zu einer Wettbewerbsdestillation, aber wir wissen auch, dass die Leute (zumindest Power -Benutzer) sie wollen, also werden wir den richtigen Weg finden, um es auszugleichen.“
Altman und Weil versuchten, Gerüchte zu zerstreuen, dass Chatgpt, die Chatbot -Plattform, über die OpenAI viele seiner Modelle startet, in Zukunft steigen würde. Altman sagte, dass er Chatgpt im Laufe der Zeit „billiger“ machen möchte, wenn auch machbar.
Altman sagte zuvor, dass OpenAI Geld für seinen teuersten Chatgpt -Plan Chatgpt Pro verlor, der 200 US -Dollar pro Monat kostet.
In einem etwas verwandten Thread sagte Weil, dass OpenAI weiterhin Beweise dafür erfasst, dass mehr Berechnung Macht zu „besseren“ und leistungsfähigeren Modellen führt. Das ist zum großen Teil das, was Projekte wie Stargate erfordert, das kürzlich ein massives Rechenzentrumsprojekt angekündigt hat, sagte Weil. Das Servieren einer wachsenden Benutzerbasis fördert die Berechnung der Nachfrage in OpenAI, fuhr er auch fort.
Auf die Frage nach einer rekursiven Selbstverbesserung, die von diesen mächtigen Modellen ermöglicht werden könnte, sagte Altman, er denke, ein „schneller Start“ sei plausibler als er einst glaubte. Eine rekursive Selbstverbesserung ist ein Prozess, bei dem ein KI-System seine eigene Intelligenz und Fähigkeiten ohne menschlichen Input verbessern könnte.
Natürlich ist es erwähnenswert, dass Altman dafür berüchtigt ist, zu überverpressen. Es war noch nicht lange her, dass er abgesenkte Openais Bar für AGI.
Ein Reddit-Benutzer fragte, ob die Modelle von OpenAI, die sich selbst verbessern oder nicht, zur Entwicklung destruktiver Waffen-insbesondere von Atomwaffen-verwendet würden. Diese Woche kündigte OpenAI eine Partnerschaft mit der US -Regierung an, um den US -amerikanischen Labors zum Teil für die Forschung in der Nuklearverteidigung ihre Modelle zu geben.
Weil sagte, er habe der Regierung vertraut.
„Ich habe diese Wissenschaftler kennengelernt und sie sind neben Weltklasse -Forschern KI -Experten“, sagte er. „Sie verstehen die Kraft und die Grenzen der Modelle, und ich glaube nicht, dass es eine Chance gibt, dass sie nur ein Modell in eine nukleare Berechnung ausgeben. Sie sind intelligent und evidenzbasiert und führen viel Experimentieren und Datenarbeit durch, um ihre gesamte Arbeit zu validieren. “
Dem OpenAI -Team wurde mehrere Fragen technischer gestellt, als wenn Openai’s nächstes Argumentationsmodell O3 veröffentlicht wird („mehr als ein paar Wochen, weniger als ein paar Monate“, sagte Altman); Wenn das nächste Flaggschiff des Unternehmens „Nicht-Begrenzung“ -Modell, GPT-5, landen könnte („haben Sie noch keine Zeitleiste“, sagte Altman); Und wenn Openai einen Nachfolger von Dall-E 3 vorstellen könnte, dem Bildschzeuger des Unternehmens. Dall-E 3, das vor etwa zwei Jahren freigelassen wurde, ist im Zahn ziemlich lange geworden. Die Bildgenerierung Tech hat sich seit dem Debüt von Dall-E 3 durch Sprung und Grenzen verbessert, und das Modell ist Bei einer Reihe von Benchmark -Tests nicht mehr wettbewerbsfähig.
„Ja! Wir arbeiten daran “, sagte Weil über ein Dall-E 3-Follow-up. „Und ich denke, es wird das Warten wert sein.“