Nvidias Keynote auf der GTC hielt einige Überraschungen bereit

Nvidias Keynote auf der GTC hielt einige Ueberraschungen bereit

„Ich hoffe, Ihnen ist klar, dass dies kein Konzert ist“, sagte Nvidia-Präsident Jensen Huang vor einem so großen Publikum, dass es das SAP Center in San Jose füllte. Damit leitete er das vielleicht komplette Gegenteil eines Konzerts ein: die GTC-Veranstaltung des Unternehmens. „Sie sind auf einer Entwicklerkonferenz angekommen. Es wird eine Menge Wissenschaft geben, die Algorithmen, Computerarchitektur und Mathematik beschreibt. Ich spüre ein sehr schweres Gewicht im Raum; Plötzlich bist du am falschen Ort.“

Es war vielleicht kein Rockkonzert, aber der Lederjacke tragende 61-jährige CEO von das drittwertvollste Unternehmen der Welt nach Marktkapitalisierung hatte sicherlich eine ganze Menge Fans im Publikum. Das Unternehmen wurde 1993 mit dem Ziel gegründet, die allgemeine Computertechnik über ihre Grenzen hinaus voranzutreiben. „Accelerated Computing“ wurde zum Schlagwort für Nvidia: Wäre es nicht großartig, Chips und Platinen herzustellen, die spezieller sind, anstatt sie für einen allgemeinen Zweck zu verwenden? Nvidia-Chips geben grafikhungrigen Spielern die nötigen Werkzeuge an die Hand, um Spiele in höherer Auflösung, höherer Qualität und höheren Bildraten zu spielen.

Es ist vielleicht keine große Überraschung, dass der Nvidia-CEO Parallelen zu einem Konzert zog. Der Veranstaltungsort war, um es kurz zu sagen, sehr konzertmäßig. Bildnachweise: Tech / Haje Kamps

Die Keynote am Montag war in gewisser Weise eine Rückkehr zur ursprünglichen Mission des Unternehmens. „Ich möchte Ihnen die Seele von Nvidia, die Seele unseres Unternehmens, an der Schnittstelle von Computergrafik, Physik und künstlicher Intelligenz zeigen, die sich alle im Inneren eines Computers kreuzen.“

Dann tat Huang in den nächsten zwei Stunden etwas Seltenes: Er machte einen Nerd. Hart. Jeder, der zur Keynote kam und erwartete, dass er Tim Cook mit einer raffinierten, publikumsorientierten Keynote abliefern würde, wurde zwangsläufig enttäuscht. Insgesamt war die Keynote techniklastig, voller Akronyme und ganz und gar eine Entwicklerkonferenz.

Wir brauchen größere GPUs

Nvidia hat mit Grafikprozessoren (GPUs) angefangen. Wenn Sie jemals einen Computer gebaut haben, denken Sie wahrscheinlich an eine Grafikkarte, die in einen PCI-Steckplatz passt. Dort begann die Reise, aber seitdem haben wir einen langen Weg zurückgelegt.

Das Unternehmen kündigte seine brandneue Blackwell-Plattform an, die ein absolutes Monster ist. Huang sagt, dass der Kern des Prozessors „die physikalischen Grenzen der Größe eines Chips ausreizte“. Es kombiniert die Leistung von zwei Chips und bietet Geschwindigkeiten von 10 Tbit/s.

„Ich halte hier Ausrüstung im Wert von rund 10 Milliarden US-Dollar“, sagte Huang und hielt einen Prototyp von Blackwell hoch. „Der nächste wird 5 Milliarden Dollar kosten. Zum Glück für Sie alle wird es von da an billiger.“ Wenn man ein paar dieser Chips zusammenfügt, kann man eine wirklich beeindruckende Leistung erzielen.

Die vorherige Generation der KI-optimierten GPU hieß Hopper. Blackwell ist zwischen 2 und 30 Mal schneller, je nachdem, wie man es misst. Huang erklärte, dass die Entwicklung des GPT-MoE-1.8T-Modells 8.000 GPUs, 15 Megawatt und 90 Tage gedauert habe. Mit dem neuen System könnten Sie nur 2.000 GPUs verwenden und 25 % der Leistung verbrauchen.

Diese GPUs übertragen eine fantastische Datenmenge – was ein sehr guter Einstieg in ein anderes Thema ist, über das Huang gesprochen hat.

Was kommt als nächstes

Nvidia hat eine Reihe neuer Tools für Autohersteller auf den Markt gebracht, die an selbstfahrenden Autos arbeiten. Das Unternehmen war bereits ein wichtiger Akteur in der Robotik, verstärkte jedoch noch mehr und entwickelte neue Werkzeuge für Robotiker, um ihre Roboter intelligenter zu machen.

Huang wiederholte immer wieder den Ausdruck „KI-Fabrik“ statt „Datenzentrum“. „Hier findet eine neue industrielle Revolution statt [server] Räume: Ich nenne sie KI-Fabriken“, sagte Huang.

Das Unternehmen stellte außerdem Nvidia NIM vor, eine Softwareplattform, die die Bereitstellung von KI-Modellen vereinfachen soll. NIM nutzt die Hardware von Nvidia als Grundlage und zielt darauf ab, die KI-Initiativen von Unternehmen durch die Bereitstellung eines Ökosystems KI-fähiger Container zu beschleunigen. Es unterstützt Modelle aus verschiedenen Quellen, darunter Nvidia, Google und Hugging Face, und lässt sich in Plattformen wie Amazon SageMaker und Microsoft Azure AI integrieren. NIM wird seine Fähigkeiten im Laufe der Zeit erweitern, einschließlich Tools für generative KI-Chatbots.

„Alles, was man digitalisieren kann: Solange es eine Struktur gibt, auf die wir einige Muster anwenden können, können wir die Muster lernen“, sagte Huang. „Und wenn wir die Muster lernen können, können wir die Bedeutung verstehen. Wenn wir die Bedeutung verstehen, können wir sie auch generieren. Und hier sind wir, in der generativen KI-Revolution.“

Informieren Sie sich über Nvidias AGB 2024:

Aktualisieren: Dieser Beitrag wurde aktualisiert und enthält nun neue Informationen und ein Video der Keynote.

tch-1-tech