Der CEO von Nvidia verteidigt seinen Burggraben, während KI-Labore die Art und Weise ändern, wie sie ihre KI-Modelle verbessern

Nvidia erzielte im letzten Quartal einen Nettogewinn von mehr als 19 Milliarden US-Dollar berichtete das Unternehmen am Mittwoch, aber das trug wenig dazu bei, den Anlegern zu versichern, dass das schnelle Wachstum anhalten würde. In der Telefonkonferenz zu den Ergebnissen fragten Analysten CEO Jensen Huang, wie es Nvidia ergehen würde, wenn Technologieunternehmen anfangen würden, neue Methoden zur Verbesserung ihrer KI-Modelle einzusetzen.

Die Methode, die dem o1-Modell von OpenAI zugrunde liegt, oder „Testzeitskalierung“, wurde ziemlich häufig erwähnt. Dahinter steckt die Idee, dass KI-Modelle bessere Antworten liefern, wenn man ihnen mehr Zeit und Rechenleistung gibt, um Fragen zu „durchdenken“. Insbesondere fügt es der KI-Inferenzphase mehr Rechenleistung hinzu, also allem, was geschieht, nachdem ein Benutzer bei seiner Eingabeaufforderung die Eingabetaste drückt.

Der CEO von Nvidia wurde gefragt, ob er sehe, dass Entwickler von KI-Modellen auf diese neuen Methoden umsteigen und wie die älteren Chips von Nvidia für die KI-Inferenz funktionieren würden.

Huang sagte den Investoren, dass o1 und die Testzeitskalierung im weiteren Sinne eine größere Rolle in Nvidias künftigem Geschäft spielen könnten, und nannte es „eine der aufregendsten Entwicklungen“ und „ein neues Skalierungsgesetz“. Huang tat sein Bestes, um den Anlegern zu versichern, dass Nvidia für den Wandel gut aufgestellt ist.

Die Äußerungen des Nvidia-CEOs stimmten mit den Aussagen von Microsoft-CEO Satya Nadella überein auf der Bühne auf einer Microsoft-Veranstaltung am Dienstag: o1 stellt für die KI-Branche eine neue Möglichkeit dar, ihre Modelle zu verbessern.

Dies ist eine große Sache für die Chipindustrie, da sie einen größeren Schwerpunkt auf KI-Inferenz legt. Während die Chips von Nvidia der Goldstandard für das Training von KI-Modellen sind, gibt es eine breite Palette gut finanzierter Start-ups, die blitzschnelle KI-Inferenz-Chips entwickeln, wie etwa Groq und Cerebras. Für Nvidia könnte es ein wettbewerbsintensiveres Umfeld sein.

Trotz aktuelle Berichte Huang sagte den Analysten, dass sich die Verbesserungen bei generativen Modellen verlangsamen, dass KI-Modellentwickler ihre Modelle immer noch verbessern, indem sie während der Vortrainingsphase mehr Rechenleistung und Daten hinzufügen.

Auch Anthropic-CEO Dario Amodei sagte am Mittwoch während eines Bühneninterviews auf dem Cerebral Valley-Gipfel in San Francisco, dass er keine Verlangsamung der Modellentwicklung sehe.

„Die Skalierung des Foundation-Modells vor dem Training ist intakt und wird fortgesetzt“, sagte Huang am Mittwoch. „Wie Sie wissen, ist dies ein empirisches Gesetz, kein grundlegendes physikalisches Gesetz, aber es gibt Hinweise darauf, dass es weiterhin skaliert. Was wir jedoch lernen, ist, dass es nicht ausreicht“, sagte Huang.

Das wollten Nvidia-Investoren sicherlich hören, seit die Aktie des Chipherstellers ist im Jahr 2024 um mehr als 180 % gestiegen durch den Verkauf der KI-Chips, auf denen OpenAI, Google und Meta ihre Modelle trainieren. Die Partner von Andreessen Horowtiz und mehrere andere KI-Führungskräfte haben jedoch zuvor erklärt, dass diese Methoden bereits beginnen, sinkende Erträge zu erzielen.

Huang wies darauf hin, dass sich die meisten Rechenaufgaben von Nvidia heute auf das Vortraining von KI-Modellen – nicht auf Schlussfolgerungen – beziehen, aber er führte dies eher auf die heutige Lage der KI-Welt zurück. Er sagte, dass es eines Tages einfach mehr Menschen geben wird, die KI-Modelle betreiben, was bedeutet, dass es mehr KI-Schlussfolgerungen geben wird. Huang wies darauf hin, dass Nvidia heute die größte Inferenzplattform der Welt sei und dass die Größe und Zuverlässigkeit des Unternehmens ihm einen enormen Vorteil gegenüber Start-ups verschafft.

„Unsere Hoffnungen und Träume sind, dass die Welt eines Tages eine Menge Schlussfolgerungen ziehen wird, und dann ist die KI wirklich erfolgreich“, sagte Huang. „Jeder weiß, dass er schneller Innovationen einführen kann, wenn er auf der Grundlage von CUDA und der Nvidia-Architektur Innovationen entwickelt, und er weiß, dass alles funktionieren sollte.“

tch-1-tech