Sam Altman, CEO von OpenAI, sagt, das Unternehmen sei „aus dem GPUs“ herausgekommen.

Sam Altman, CEO von OpenAI, sagte, das Unternehmen sei gezwungen, die Einführung seines neuesten Modells GPT-4,5 zu stolpern, weil Openai „aus GPUs“ ist.

In a Post auf xAltman sagte, dass GPT-4,5, das er als „riesiger“ und „teuer“ bezeichnete, „Zehntausende“ mehr GPUs benötigt, bevor zusätzliche ChatGPT-Benutzer Zugriff erhalten können. GPT-4.5 wird ab Donnerstag zu den Abonnenten von Chatgpt Pro stehen, gefolgt von Chatgpt Plus-Kunden in der nächsten Woche.

Möglicherweise ist GPT-4,5 zum Teil aufgrund seiner enormen Größe wild teuer. OpenAI berechnet 75 USD pro Million Token (~ 750.000 Wörter), die in das Modell eingespeist wurden und 150 US -Dollar pro Million Token, die vom Modell generiert werden. Das sind 30-fache die Eingangskosten und die Ausgabekosten des Openai-Arbeitspferdes GPT-4O-Modell.

„Wir sind viel gewachsen und sind aus dem GPUs nicht mehr“, schrieb Altman. „Wir werden nächste Woche Zehntausende von GPUs hinzufügen und es dann zum Plus -Tier verdrehen […] So wollen wir nicht operieren, aber es ist schwierig, Wachstumsschwankungen perfekt vorherzusagen, die zu GPU -Engpässen führen. “

Altman hat zuvor gesagt, dass ein Mangel an Computerkapazität die Produkte des Unternehmens verzögert. OpenAI hofft, dies in den kommenden Jahren zu bekämpfen, indem sie eigene KI -Chips entwickelt und ein riesiges Netzwerk von Datencentern erstellt.



tch-1-tech