Alternative Clouds boomen, da Unternehmen einen günstigeren Zugang zu GPUs suchen

Der Appetit auf alternative Clouds war noch nie so groß.

Ein typisches Beispiel: CoreWeave, der GPU-Infrastrukturanbieter, der als Kryptowährungs-Mining-Unternehmen begann, hat diese Woche 1,1 Milliarden US-Dollar an neuen Mitteln von Investoren wie Coatue, Fidelity und Altimeter Capital eingesammelt. Durch die Runde steigt die Bewertung nach der Finanzierung auf 19 Milliarden US-Dollar und die Gesamtsumme an Schulden und Eigenkapital erhöht sich auf 5 Milliarden US-Dollar – eine bemerkenswerte Zahl für ein Unternehmen, das noch keine zehn Jahre alt ist.

Es ist nicht nur CoreWeave.

Lambda Labs, das auch eine Reihe von in der Cloud gehosteten GPU-Instanzen anbietet, sicherte sich Anfang April ein „spezielles Finanzierungsvehikel“ in Höhe von bis zu 500 Millionen US-Dollar, Monate nach Abschluss einer Serie-C-Runde im Wert von 320 Millionen US-Dollar. Die gemeinnützige Organisation „Voltage Park“, die vom Krypto-Milliardär Jed McCaleb unterstützt wird, gab im vergangenen Oktober bekannt, dass sie 500 Millionen US-Dollar in GPU-gestützte Rechenzentren investiert. Und Together AI, ein Cloud-GPU-Host, der auch generative KI-Forschung betreibt, hat im März 106 Millionen US-Dollar in einer von Salesforce geleiteten Finanzierungsrunde eingesammelt.

Warum also all die Begeisterung für den alternativen Cloud-Bereich und das Geld, das in ihn fließt?

Die Antwort lautet erwartungsgemäß generative KI.

Mit dem anhaltenden Boom der generativen KI steigt auch die Nachfrage nach Hardware zum Ausführen und Trainieren generativer KI-Modelle in großem Maßstab. GPUs sind architektonisch gesehen die logische Wahl für das Training, die Feinabstimmung und die Ausführung von Modellen, da sie Tausende von Kernen enthalten, die parallel arbeiten können, um die linearen Algebra-Gleichungen auszuführen, aus denen generative Modelle bestehen.

Aber die Installation von GPUs ist teuer. Daher greifen die meisten Entwickler und Organisationen stattdessen auf die Cloud zurück.

Die etablierten Anbieter im Cloud-Computing-Bereich – Amazon Web Services (AWS), Google Cloud und Microsoft Azure – bieten keinen Mangel an GPU- und speziellen Hardware-Instanzen, die für generative KI-Workloads optimiert sind. Aber zumindest bei einigen Modellen und Projekten können alternative Clouds am Ende günstiger sein – und eine bessere Verfügbarkeit bieten.

Bei CoreWeave kostet die Miete einer Nvidia A100 40 GB – eine beliebte Wahl für Modelltraining und Inferenz – 2,39 US-Dollar pro Stunde, was 1.200 US-Dollar pro Monat entspricht. Auf Azure kostet dieselbe GPU 3,40 US-Dollar pro Stunde oder 2.482 US-Dollar pro Monat; Bei Google Cloud sind es 3,67 $ pro Stunde oder 2.682 $ pro Monat.

Da generative KI-Arbeitslasten normalerweise auf GPU-Clustern ausgeführt werden, wachsen die Kostendeltas schnell.

„Unternehmen wie CoreWeave beteiligen sich an einem Markt, den wir als spezialisierte ‚GPU as a Service‘-Cloud-Anbieter bezeichnen“, sagte Sid Nag, Vizepräsident für Cloud-Dienste und -Technologien bei Gartner, gegenüber Tech. „Angesichts der hohen Nachfrage nach GPUs bieten sie eine Alternative zu den Hyperscalern, wo sie Nvidia-GPUs übernommen und einen anderen Weg zur Vermarktung und zum Zugang zu diesen GPUs geschaffen haben.“

Nag weist darauf hin, dass selbst einige große Technologieunternehmen begonnen haben, sich auf alternative Cloud-Anbieter zu verlassen, da sie mit Herausforderungen bei der Rechenkapazität konfrontiert sind.

Letzten Juni, CNBC gemeldet dass Microsoft einen milliardenschweren Vertrag mit CoreWeave unterzeichnet hatte, um sicherzustellen, dass OpenAI, der Hersteller von ChatGPT und enger Microsoft-Partner, über ausreichende Rechenleistung verfügt, um seine generativen KI-Modelle zu trainieren. Nvidia, der Lieferant des Großteils der CoreWeave-Chips, hält dies für einen wünschenswerten Trend, vielleicht aus Gründen der Hebelwirkung; Es soll einige alternative Cloud-Anbieter gegeben haben bevorzugter Zugang zu seinen GPUs.

Lee Sustar, Chefanalyst bei Forrester, sieht den Erfolg von Cloud-Anbietern wie CoreWeave teilweise darin begründet, dass sie nicht über das Infrastruktur-„Gepäck“ verfügen, mit dem etablierte Anbieter zu kämpfen haben.

„Angesichts der Hyperscaler-Dominanz auf dem gesamten Public-Cloud-Markt, der enorme Investitionen in die Infrastruktur und eine Reihe von Diensten erfordert, die kaum oder gar keine Einnahmen bringen, haben Herausforderer wie CoreWeave eine Chance, mit einem Fokus auf Premium-KI-Dienste ohne die Belastung durch Hypercaler-Ebene erfolgreich zu sein.“ Investitionen insgesamt“, sagte er.

Aber ist dieses Wachstum nachhaltig?

Sustar hat seine Zweifel. Er glaubt, dass die Expansion alternativer Cloud-Anbieter davon abhängen wird, ob sie GPUs weiterhin in großen Mengen online stellen und zu wettbewerbsfähig niedrigen Preisen anbieten können.

Der Preiswettbewerb könnte auf lange Sicht zu einer Herausforderung werden, da etablierte Unternehmen wie Google, Microsoft und AWS ihre Investitionen in kundenspezifische Hardware zum Ausführen und Trainieren von Modellen erhöhen. Google bietet seine TPUs an; Microsoft hat kürzlich zwei benutzerdefinierte Chips vorgestellt, Azure Maia und Azure Cobalt; und AWS hat Trainium, Inferentia und Graviton.

„Hypercaler werden ihre benutzerdefinierten Chips nutzen, um ihre Abhängigkeiten von Nvidia zu verringern, während Nvidia auf CoreWeave und andere GPU-zentrierte KI-Clouds setzen wird“, sagte Sustar.

Hinzu kommt, dass viele generative KI-Workloads zwar am besten auf GPUs laufen, diese aber nicht für alle Workloads erforderlich sind – insbesondere, wenn sie nicht zeitkritisch sind. CPUs können die erforderlichen Berechnungen ausführen, sind jedoch in der Regel langsamer als GPUs und benutzerdefinierte Hardware.

Noch existenzieller ist die Gefahr, dass die generative KI-Blase platzt, was dazu führen würde, dass die Anbieter Berge von GPUs hätten und nicht annähernd genug Kunden diese nachfragen würden. Kurzfristig sieht die Zukunft jedoch rosig aus, sagen Sustar und Nag, die beide mit einem stetigen Strom aufsteigender Wolken rechnen.

„GPU-orientierte Cloud-Startups werden geben [incumbents] Es gibt viel Konkurrenz, insbesondere unter Kunden, die bereits mehrere Clouds nutzen und die Komplexität von Management, Sicherheit, Risiko und Compliance über mehrere Clouds hinweg bewältigen können“, sagte Sustar. „Diese Art von Cloud-Kunden können problemlos eine neue KI-Cloud ausprobieren, wenn sie über eine glaubwürdige Führung, eine solide finanzielle Unterstützung und GPUs ohne Wartezeiten verfügt.“

tch-1-tech