Nvidia arbeitet mit Google Cloud zusammen, um KI-fokussierte Hardwareinstanzen auf den Markt zu bringen

Nvidia bestaetigt dass es einen Cybersicherheitsvorfall untersucht – Tech

In Partnerschaft mit Google hat Nvidia heute ein neues Cloud-Hardwareangebot auf den Markt gebracht, die L4-Plattform, die für die Ausführung videofokussierter Anwendungen optimiert ist.

Nvidia sagt, dass die L4-Plattform darauf ausgelegt ist, die „KI-gestützte“ Videoleistung zu beschleunigen. L4 dient als Allzweck-GPU und bietet Funktionen zur Videodekodierung sowie Transkodierung und Videostreaming.

Neben dem Zugriff auf die L4-Plattform über Google Cloud integriert Google L4 in Vertex AI, seinen verwalteten Dienst für maschinelles Lernen für Unternehmenskunden.

Für diejenigen, die es vorziehen, sich nicht bei Google Cloud anzumelden, wird L4 später in diesem Jahr von Nvidias Netzwerkhardwarepartnern erhältlich sein, darunter Asus, Cisco, Dell, Hewlett Packard Enterprise und Lenovo.

L4 steht neben den anderen KI-fokussierten Hardwarelösungen, die Nvidia heute angekündigt hat, darunter L40, H100 NVL und Grace Hopper for Recommendation Models. L40 ist für Grafiken und KI-fähige 2D-, Video- und 3D-Bilderzeugung optimiert, während H100 NVL die Bereitstellung großer Sprachmodelle wie ChatGPT unterstützt. (Wie der Name schon sagt, ist Grace Hopper for Recommendation Models auf Empfehlungsmodelle ausgerichtet.)

L40 ist diese Woche über die oben genannten Hardwarepartner von Nvidia erhältlich. Nvidia erwartet, dass Grace Hopper und das H100 NVL in der zweiten Jahreshälfte ausgeliefert werden.

In verwandten Nachrichten markiert heute den Start der DGX Cloud-Plattform von Nvidia, die Unternehmen Zugang zu Infrastruktur und Software bietet, um Modelle für generative und andere Formen der KI zu trainieren. DGX Cloud wurde Anfang dieses Jahres angekündigt und ermöglicht es Unternehmen, Cluster von Nvidia-Hardware auf monatlicher Basis zu mieten – beginnend bei atemberaubenden 36.999 US-Dollar pro Instanz und Monat.

Jede Instanz von DGX Cloud verfügt über acht Nvidia H100- oder A100-80-GB-Tensor-Core-GPUs für insgesamt 640 GB GPU-Speicher pro Knoten, gepaart mit Speicher. Mit DGX Cloud-Abonnements erhalten Kunden auch Zugriff auf AI Enterprise, die Softwareschicht von Nvidia, die KI-Frameworks, vortrainierte Modelle und „beschleunigte“ Data-Science-Bibliotheken enthält.

Nvidia sagt, dass es mit „führenden“ Cloud-Service-Providern zusammenarbeitet, um die DGX Cloud-Infrastruktur zu hosten, beginnend mit Oracle Cloud Infrastructure. Microsoft Azure wird voraussichtlich im nächsten Geschäftsquartal mit dem Hosten von DGX Cloud beginnen, und der Dienst wird bald auf Google Cloud ausgeweitet.

Nvidias aggressiver Vorstoß in die KI-Berechnung erfolgt, da sich das Unternehmen von unrentablen Investitionen in anderen Bereichen wie Spielen und professioneller Virtualisierung entfernt. Der letzte Gewinnbericht von Nvidia zeigte, dass sein Rechenzentrumsgeschäft, zu dem auch Chips für KI gehören, weiter gewachsen ist (auf 3,62 Milliarden US-Dollar), deutete an, dass Nvidia weiterhin vom generativen KI-Boom profitieren könnte.

tch-1-tech