Die Bemühungen von OpenAI, sein nächstes großes Modell, GPT-5, zu entwickeln, hinken dem Zeitplan hinterher, mit Ergebnissen, die die enormen Kosten noch nicht rechtfertigen, heißt es ein neuer Bericht im Wall Street Journal.
Das hallt wider ein früherer Bericht in The Information deuten darauf hin, dass OpenAI nach neuen Strategien sucht, da GPT-5 möglicherweise keinen so großen Fortschritt darstellt wie frühere Modelle. Aber die WSJ-Geschichte enthält zusätzliche Details rund um die 18-monatige Entwicklung von GPT-5 mit dem Codenamen Orion.
Berichten zufolge hat OpenAI mindestens zwei große Trainingsläufe abgeschlossen, die darauf abzielen, ein Modell durch Training mit riesigen Datenmengen zu verbessern. Ein erster Trainingslauf verlief langsamer als erwartet, was darauf hindeutet, dass ein größerer Lauf sowohl zeitaufwändig als auch kostspielig sein würde. Und obwohl GPT-5 angeblich eine bessere Leistung als seine Vorgänger bietet, ist es noch nicht weit genug fortgeschritten, um die Kosten für den Betrieb des Modells zu rechtfertigen.
Das WSJ berichtet außerdem, dass OpenAI nicht nur auf öffentlich verfügbare Daten und Lizenzverträge angewiesen sei, sondern auch Leute angeheuert habe, die neue Daten erstellen, indem sie Code schreiben oder mathematische Probleme lösen. Es verwendet auch synthetische Daten, die von einem anderen seiner Modelle, o1, erstellt wurden.
OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme. Das Unternehmen hatte zuvor erklärt, dass es in diesem Jahr kein Modell mit dem Codenamen Orion herausbringen werde.