Sam Altman, CEO von OpenAI, sagte, das Unternehmen sei gezwungen, die Einführung seines neuesten Modells GPT-4,5 zu stolpern, weil Openai „aus GPUs“ ist.
In a Post auf xAltman sagte, dass GPT-4,5, das er als „riesiger“ und „teuer“ bezeichnete, „Zehntausende“ mehr GPUs benötigt, bevor zusätzliche ChatGPT-Benutzer Zugriff erhalten können. GPT-4.5 wird ab Donnerstag zu den Abonnenten von Chatgpt Pro stehen, gefolgt von Chatgpt Plus-Kunden in der nächsten Woche.
Möglicherweise ist GPT-4,5 zum Teil aufgrund seiner enormen Größe wild teuer. OpenAI berechnet 75 USD pro Million Token (~ 750.000 Wörter), die in das Modell eingespeist wurden und 150 US -Dollar pro Million Token, die vom Modell generiert werden. Das sind 30-fache die Eingangskosten und die Ausgabekosten des Openai-Arbeitspferdes GPT-4O-Modell.
GPT 4.5 Die Preisgestaltung ist ausschließlich. Wenn dies keinen enormen Modelle riecht, werde ich enttäuscht sein pic.twitter.com/1kk5lpn9gh
– Casper Hansen (@casper_hansen_) 27. Februar 2025
„Wir sind viel gewachsen und sind aus dem GPUs nicht mehr“, schrieb Altman. „Wir werden nächste Woche Zehntausende von GPUs hinzufügen und es dann zum Plus -Tier verdrehen […] So wollen wir nicht operieren, aber es ist schwierig, Wachstumsschwankungen perfekt vorherzusagen, die zu GPU -Engpässen führen. “
Altman hat zuvor gesagt, dass ein Mangel an Computerkapazität die Produkte des Unternehmens verzögert. OpenAI hofft, dies in den kommenden Jahren zu bekämpfen, indem sie eigene KI -Chips entwickelt und ein riesiges Netzwerk von Datencentern erstellt.