OpenAI, eines der am besten finanzierten KI-Startups in der Wirtschaft, erforscht die Herstellung eigener KI-Chips.
Diskussionen über KI-Chip-Strategien innerhalb des Unternehmens laufen seit mindestens letztem Jahr, nach Laut Reuters verschärft sich der Mangel an Chips zum Trainieren von KI-Modellen. Berichten zufolge erwägt OpenAI eine Reihe von Strategien, um seine Chip-Ambitionen voranzutreiben, darunter die Übernahme eines KI-Chip-Herstellers oder den Versuch, Chips intern zu entwickeln.
Laut Reuters hat der CEO von OpenAI, Sam Altman, die Anschaffung weiterer KI-Chips für das Unternehmen zur obersten Priorität erklärt.
Derzeit verlässt sich OpenAI, wie die meisten seiner Konkurrenten, auf GPU-basierte Hardware, um Modelle wie ChatGPT, GPT-4 und DALL-E 3 zu entwickeln. Aufgrund ihrer Fähigkeit, viele Berechnungen parallel durchzuführen, eignen sich GPUs gut für das Training der heutigen Anforderungen leistungsfähige KI.
Doch der Boom der generativen KI – ein Glücksfall für GPU-Hersteller wie Nvidia – hat die GPU-Lieferkette massiv belastet. Microsoft sei mit einem so schwerwiegenden Mangel an Serverhardware konfrontiert, die für die Ausführung von KI erforderlich sei, dass es zu Dienstunterbrechungen kommen könne, so das Unternehmen gewarnt in einem Sommerergebnisbericht. Und Nvidias leistungsstärkste KI-Chips sind es angeblich bis 2024 ausverkauft.
GPUs sind auch für die Ausführung und Bereitstellung der OpenAI-Modelle unerlässlich. Das Unternehmen verlässt sich auf GPU-Cluster in der Cloud, um die Arbeitslasten der Kunden zu bewältigen. Aber sie sind mit enorm hohen Kosten verbunden.
Eine Analyse der Bernstein-Analystin Stacy Rasgon ergab, dass, wenn ChatGPT-Anfragen auf ein Zehntel des Ausmaßes der Google-Suche anwachsen würden, zunächst GPUs im Wert von etwa 48,1 Milliarden US-Dollar und Chips im Wert von etwa 16 Milliarden US-Dollar pro Jahr erforderlich wären, um betriebsbereit zu bleiben.
OpenAI wäre nicht der erste, der die Entwicklung eigener KI-Chips in Angriff nimmt.
Google verfügt über einen Prozessor, die TPU (kurz für „Tensor Processing Unit“), um große generative KI-Systeme wie PaLM-2 und Imagen zu trainieren. Amazon bietet AWS-Kunden proprietäre Chips sowohl für das Training (Trainium) als auch für die Inferenzierung (Inferentia) an. Und Microsoft, angeblicharbeitet mit AMD an der Entwicklung eines hauseigenen KI-Chips namens Athena, den OpenAI testen soll.
OpenAI ist sicherlich in einer guten Position, stark in Forschung und Entwicklung zu investieren. Das Unternehmen, das über 11 Milliarden US-Dollar an Risikokapital eingeworben hat, nähert sich dem Jahresumsatz von 1 Milliarde US-Dollar. Laut einem aktuellen Bericht des Wall Street Journals erwägt das Unternehmen zudem einen Aktienverkauf, durch den die Bewertung auf dem Sekundärmarkt auf 90 Milliarden US-Dollar steigen könnte.
Aber Hardware ist ein unerbittliches Geschäft – insbesondere KI-Chips.
Im vergangenen Jahr erklärte der KI-Chiphersteller Graphcore, dessen Wert angeblich um eine Milliarde US-Dollar gesunken war, nachdem ein Deal mit Microsoft gescheitert war, dass er aufgrund des „extrem herausfordernden“ makroökonomischen Umfelds einen Stellenabbau plane. (Die Situation hat sich in den letzten Monaten verschärft, da Graphcore sinkende Einnahmen und steigende Verluste meldete.) Unterdessen hat Habana Labs, das zu Intel gehörende Unternehmen für KI-Chips, schätzungsweise 10 % seiner Belegschaft entlassen. Und die Bemühungen von Meta um maßgeschneiderte KI-Chips waren mit Problemen behaftet, was dazu führte, dass das Unternehmen einen Teil seiner experimentellen Hardware verschrottete.
Selbst wenn sich OpenAI verpflichtet, einen maßgeschneiderten Chip auf den Markt zu bringen, könnte ein solcher Aufwand Jahre dauern und jährlich Hunderte Millionen Dollar kosten. Es bleibt abzuwarten, ob die Investoren des Startups, zu denen auch Microsoft gehört, Lust auf eine solch riskante Wette haben.