Das chinesische KI-Unternehmen DeepSeek hat sich zu einem potenziellen Konkurrenten der US-amerikanischen KI-Führungskräfte entwickelt und stellt bahnbrechende Modelle vor, die angeblich eine mit führenden Chatbots vergleichbare Leistung zu einem Bruchteil der Kosten bieten. Die Anfang Januar veröffentlichte mobile App des Unternehmens erreichte auch in wichtigen Märkten, darunter den USA, Großbritannien und China, Spitzenplätze in den iPhone-Charts.
DeepSeek wurde 2023 von Liang Wenfeng, dem ehemaligen Chef des KI-gesteuerten Quant-Hedgefonds High-Flyer, gegründet. Das Unternehmen stellt seine Modelle als Open-Source-Modell zur Verfügung und integriert eine Argumentationsfunktion, die seine Gedanken artikuliert, bevor es Antworten liefert.
Die Reaktion der Wall Street war gemischt. Während Jefferies warnt, dass der effiziente Ansatz von DeepSeek „einen Teil der Investitionseuphorie zunichtemacht“, nachdem Meta und Microsoft kürzlich Ausgabenzusagen gemacht haben, die in diesem Jahr jeweils über 60 Milliarden US-Dollar betragen, stellt Citi in Frage, ob solche Ergebnisse ohne fortschrittliche GPUs erzielt wurden. Goldman Sachs sieht weitreichendere Auswirkungen und geht davon aus, dass die Entwicklung den Wettbewerb zwischen etablierten Technologiegiganten und Start-ups verändern könnte, indem die Eintrittsbarrieren gesenkt werden.
So reagieren Wall-Street-Analysten in ihren eigenen Worten (Hervorhebung von mir) auf DeepSeek:
Jefferies
Die Leistungsauswirkungen von DeepSeek auf das KI-Training trübt einen Teil der Investitionseuphorie Dies folgte letzte Woche großen Zusagen von Stargate und Meta. Da DeepSeek eine mit GPT-4o vergleichbare Leistung für einen Bruchteil der Rechenleistung liefert, gibt es sie Mögliche negative Auswirkungen für die Bauherrenda der Druck auf KI-Akteure, immer höhere Investitionspläne zu rechtfertigen, letztendlich zu einem niedrigeren Umsatz- und Gewinnwachstum im Rechenzentrum führen könnte.
Wenn kleinere Modelle gut funktionieren können, ist dies der Fall potenziell positiv für Smartphones. Wir stehen KI-Smartphones skeptisch gegenüber, da KI bei den Verbrauchern keine Anklang findet. Für den Betrieb größerer Modelle auf dem Telefon sind weitere Hardware-Upgrades (Adv-Paket + schnelles DRAM) erforderlich, was zu höheren Kosten führt. Das Modell von AAPL basiert zwar auf MoE, aber 3 Milliarden Datenparameter sind immer noch zu klein, um die Dienste für Verbraucher nützlich zu machen. Daher gibt der Erfolg von DeepSeek Anlass zur Hoffnung, hat jedoch keine Auswirkungen auf die kurzfristigen Aussichten von KI-Smartphones.
China ist das einziger Markt, der LLM-Effizienz anstrebt aufgrund der Chipbeschränkung. Trump/Musk erkennen wahrscheinlich, dass das Risiko weiterer Beschränkungen darin besteht, China zu schnelleren Innovationen zu zwingen. Daher halten wir es für wahrscheinlich, dass Trump die Politik der KI-Verbreitung lockern wird.
Stadt
Die Leistung von DeepSeek könnte zwar bahnbrechend sein, aber wir die Vorstellung in Frage stellen dass seine Leistungen ohne den Einsatz fortschrittlicher GPUs zur Feinabstimmung und/oder zum Aufbau der zugrunde liegenden LLMs, auf denen das endgültige Modell basiert, durch die Destillationstechnik erbracht wurden. Während die Dominanz der US-Unternehmen bei den fortschrittlichsten KI-Modellen möglicherweise in Frage gestellt werden könnte, gehen wir davon aus, dass der Zugang der USA zu fortschrittlicheren Chips in einem zwangsläufig restriktiveren Umfeld von Vorteil ist. Daher gehen wir nicht davon aus, dass sich führende KI-Unternehmen von fortschrittlicheren GPUs abwenden würden, die in großem Maßstab attraktivere $/TFLOPs bieten. Wir sehen die jüngsten Ankündigungen zu KI-Investitionen wie Stargate als Anspielung auf den Bedarf an fortschrittlichen Chips.
Bernstein
Kurz gesagt, wir glauben, dass 1) DeepSeek HAT NICHT „OpenAI für 5 Millionen US-Dollar gebaut“; 2) Die Modelle sehen fantastisch aus, aber wir glaube nicht, dass es sich um Wunder handelt; und 3) das resultierende Twitterverse Die Panik am Wochenende scheint übertrieben.
Unsere eigene erste Reaktion beinhaltet keine Panik (ganz im Gegenteil). Wenn wir anerkennen, dass DeepSeek die Kosten für die Erzielung einer gleichwertigen Modellleistung beispielsweise um das Zehnfache gesenkt hat, stellen wir auch fest, dass die aktuellen Modellkostenverläufe ohnehin jedes Jahr um etwa diesen Betrag steigen (die berüchtigten „Skalierungsgesetze…“), was nicht möglich ist ewig weitermachen. In diesem Zusammenhang BRAUCHEN wir Innovationen wie diese (MoE, Destillation, gemischte Präzision usw.), wenn die KI weiterhin Fortschritte machen soll. Und für diejenigen, die auf der Suche nach einer KI-Einführung sind: Als Semi-Analysten glauben wir fest an das Jevons-Paradoxon (d. h., dass Effizienzsteigerungen einen Nettoanstieg der Nachfrage erzeugen) und glauben, dass die freigesetzte neue Rechenkapazität viel eher aufgrund der Nutzung absorbiert wird Nachfrageanstieg vs. Auswirkungen auf die langfristigen Ausgabenaussichten zu diesem Zeitpunkt, da wir nicht glauben, dass der Rechenbedarf in der KI auch nur annähernd sein Limit erreicht. Es scheint auch weit hergeholt zu sein, zu glauben, dass die von DeepSeek eingesetzten Innovationen der großen Zahl erstklassiger KI-Forscher in den zahlreichen anderen KI-Laboren der Welt völlig unbekannt sind (offen gesagt wissen wir nicht, was die großen geschlossenen Labore für die Entwicklung verwendet haben). und ihre eigenen Modelle einsetzen, aber wir können einfach nicht glauben, dass sie ähnliche Strategien nicht in Betracht gezogen oder vielleicht sogar selbst angewendet haben).
Morgan Stanley
Wir haben die Richtigkeit dieser Berichte nicht bestätigt, aber wenn sie korrekt sind und fortgeschrittene LLM tatsächlich für einen Bruchteil der vorherigen Investitionen entwickelt werden können, Wir könnten generative KI irgendwann auf immer kleineren Computern laufen sehen (Verkleinerung von Supercomputern hin zu Workstations, Bürocomputern und schließlich Personalcomputern) und die SPE-Industrie könnten von der damit einhergehenden steigenden Nachfrage nach verwandten Produkten (Chips und SPE) profitieren, da die Nachfrage nach generativer KI zunimmt.
Goldman Sachs
Mit den neuesten Entwicklungen sehen wir auch 1) potenzieller Wettbewerb zwischen kapitalreichen Internetgiganten vs. Start-upsangesichts der geringeren Markteintrittsbarrieren, insbesondere da neue Modelle zu einem Bruchteil der Kosten bestehender Modelle entwickelt wurden; 2) vom Training bis hin zu mehr Schlussfolgerungenmit verstärktem Schwerpunkt auf Post-Training (einschließlich Argumentationsfähigkeiten und Verstärkungsfähigkeiten), das im Vergleich zum Pre-Training deutlich geringere Rechenressourcen erfordert; und 3) das Potenzial für eine weitere globale Expansion chinesischer Akteure angesichts ihrer Leistung und Kosten-/Preiswettbewerbsfähigkeit.
Wir gehen weiterhin davon aus, dass der Wettlauf um KI-Anwendungen/KI-Agenten in China weitergehen wird, insbesondere bei To-C-Anwendungen, wo chinesische Unternehmen im Internetzeitalter Pioniere bei mobilen Anwendungen waren, z. B. Tencents Entwicklung des Weixin (WeChat) Super- App. Unter den To-C-Anwendungen war ByteDance mit der Einführung von 32 KI-Anwendungen im vergangenen Jahr führend. Unter ihnen war Doubao bisher der beliebteste KI-Chatbot in China mit der höchsten MAU (ca. 70 Mio.), der kürzlich mit seinem Doubao 1.5 Pro-Modell aufgerüstet wurde. Wir glauben, dass zusätzliche Einnahmequellen (Abonnement, Werbung) und ein letztendlicher/nachhaltiger Weg zur Monetarisierung/positiven Einheitsökonomie bei Anwendungen/Agenten von entscheidender Bedeutung sein werden.
Auf der Infrastrukturebene konzentrierten sich die Anleger darauf, ob es im Falle erheblicher Verbesserungen der Kosten-/Modell-Recheneffizienz kurzfristig zu einer Diskrepanz zwischen den Markterwartungen hinsichtlich der KI-Investitionen und der Rechennachfrage kommen wird. Für chinesische Cloud-/Rechenzentrumsakteure glauben wir weiterhin, dass der Fokus für 2025 auf der Chipverfügbarkeit und der Fähigkeit von CSP (Cloud-Service-Providern) liegen wird, einen verbesserten Umsatzbeitrag durch KI-gesteuertes Cloud-Umsatzwachstum und über die Vermietung von Infrastruktur/GPU hinaus zu liefern , wie KI-Workloads und KI-bezogene Dienste in Zukunft zu Wachstum und Margen beitragen könnten. Wir bleiben hinsichtlich des langfristigen Wachstums der KI-Computing-Nachfrage optimistisch, da eine weitere Senkung der Computing-/Schulungs-/Inferenzkosten zu einer stärkeren KI-Einführung führen könnte. Siehe auch Thema Nr. 5 unseres Kernthemenberichts für unsere Basis-/Bärenszenarien für BBAT-Investitionsschätzungen abhängig von der Chipverfügbarkeit, wobei wir in unserem Basisszenario davon ausgehen, dass sich das Gesamtinvestitionswachstum von BBAT im Jahr 2025E fortsetzen wird (GSe: +38 % im Jahresvergleich), wenn auch mit etwas moderaterem Tempo im Vergleich zu einem starken Jahr 2024 (GSe: +61 % im Jahresvergleich), angetrieben durch anhaltende Investitionen in die KI-Infrastruktur.
JPMorgan
Vor allem wird viel Wert auf die Forschungsarbeiten von DeepSeek und die Effizienz ihrer Modelle gelegt. Es ist unklar, in welchem Umfang DeepSeek die ~50.000 Hopper-GPUs von High-Flyer nutzt (ähnlich groß wie der Cluster, auf dem OpenAI vermutlich GPT-5 trainiert), aber was wahrscheinlich ist, ist, dass sie die Kosten (Inferenzkosten) drastisch senken für ihr V2-Modell sollen beispielsweise 1/7 der von GPT-4 Turbo sein). Ihre subversive (wenn auch nicht neue) Behauptung – die seit dieser Woche bei den US-amerikanischen KI-Namen Einzug hält – lautet: „Mehr Investitionen bedeuten nicht mehr Innovation.“ Liang: „Im Moment sehe ich keine neuen Ansätze, aber große Unternehmen haben keine klare Oberhand. Große Unternehmen haben bestehende Kunden, aber ihr Cashflow-Geschäft ist auch eine Belastung für sie, und das macht sie jederzeit anfällig für Störungen.“ Und auf die Frage, dass GPT5 immer noch nicht veröffentlicht wurde: „OpenAI ist kein Gott, sie werden nicht unbedingt immer an vorderster Front stehen.“
UBS
Im Jahr 2024, dem ersten Jahr, in dem wir in China eine enorme Arbeitsbelastung für KI-Schulungen sahen, wurden mehr als 80–90 % der IDC-Nachfrage durch KI-Schulungen getrieben und konzentrierten sich auf 1–2 Hyperscaler-Kunden, was sich in einer Hyperscale-IDC-Großnachfrage in relativ abgelegenen Gebieten niederschlug (ca stromverbrauchendes KI-Training ist eher von den Betriebskosten als von der Benutzerlatenz abhängig.
Wenn die Kosten für KI-Training und Inferenz deutlich niedriger sind, Wir gehen davon aus, dass mehr Endbenutzer KI nutzen würden, um ihr Geschäft zu verbessern oder neue Anwendungsfälle zu entwickelninsbesondere Privatkunden. Eine solche IDC-Nachfrage bedeutet eine stärkere Konzentration auf den Standort (da die Benutzerlatenz wichtiger ist als die Versorgungskosten) und damit eine größere Preissetzungsmacht für IDC-Betreiber, die über reichlich Ressourcen in Tier-1- und Satellitenstädten verfügen. Gleichzeitig würde ein stärker diversifiziertes Kundenportfolio auch eine größere Preissetzungsmacht bedeuten.
Wir werden die Geschichte aktualisieren, sobald weitere Analysten reagieren.