„Wir befinden uns an dem Wendepunkt, an dem KI in Unternehmen Einzug hält und die Veröffentlichung dieser Dienste, die Kunden nutzen können, um KI für geschäftliche Anwendungsfälle bereitzustellen, Realität wird.“ Ian BuckNvidias General Manager für Hyperscale und HPC sagte Reuters. „Wir sehen eine breite Welle der Einführung von KI … und die Notwendigkeit, KI für Anwendungsfälle in Unternehmen einzusetzen.“
Neben dem Verkauf der Chips an Microsoft sagte Nvidia, dass es mit dem Software- und Cloud-Giganten zusammenarbeiten wird, um KI-Modelle zu entwickeln. Bock sagte, Nvidia würde auch ein Kunde von Microsofts KI-Cloud-Computer sein und KI-Anwendungen darauf entwickeln, um Kunden Dienste anzubieten. Das schnelle Wachstum von KI-Modellen, wie sie für die Verarbeitung natürlicher Sprache verwendet werden, hat die Nachfrage nach schnellerer, leistungsfähigerer Computerinfrastruktur stark erhöht. Nvidia sagte, Azure sei die erste öffentliche Cloud, die ihre Quantum-2 InfiniBand-Netzwerktechnologie mit einer Geschwindigkeit von 400 Gigabit pro Sekunde nutzt. Diese Netzwerktechnologie verbindet Server mit hoher Geschwindigkeit. Dies ist wichtig, da für umfangreiche KI-Rechenaufgaben Tausende von Chips erforderlich sind, um über mehrere Server hinweg zusammenzuarbeiten.