„Wir denken über den KI-Beschleuniger für Rechenzentren nach [market] „Es wächst von etwa 30 Milliarden US-Dollar in diesem Jahr mit einer durchschnittlichen jährlichen Wachstumsrate von über 50 % auf über 150 Milliarden US-Dollar im Jahr 2027“, wurde sie zitiert.Warum werden KI-GPUs benötigt?
GPU-Chips werden von Unternehmen benötigt, die generative KI-Programme und -Tools anbieten. „Im Mittelpunkt stehen GPUs. GPUs ermöglichen generative KI“, sagte Su gegenüber Investoren, wie CNBC berichtete.Große Sprachmodelle (LLMs) für generative KI-Anwendungen erfordern aufgrund einer zunehmenden Anzahl von Berechnungen viel Speicher und Rechenleistung. AMD demonstrierte den MI300x mit einem 40-Milliarden-Parameter-Modell namens Falcon. Um mehr Klarheit zu schaffen, verfügt das GPT-3-Modell von OpenAI über 175 Milliarden Parameter. Laut AMD wurden sein MI300X-Chip und seine CDNA-Architektur für große Sprachmodelle und andere hochmoderne KI-Modelle entwickelt.
Es kann bis zu 192 GB Speicher nutzen, was im Wesentlichen bedeutet, dass die GPU problemlos größere Modelle ausführen kann. Nvidias Konkurrent H100 unterstützt nur 120 GB Speicher.„Die Modellgrößen werden immer größer und man benötigt tatsächlich mehrere GPUs, um die neuesten großen Sprachmodelle auszuführen“, sagte Su. Sie stellte fest, dass Entwickler mit dem zusätzlichen Speicher auf AMD-Chips nicht viele GPUs benötigen würden.Eine „gute Nachricht“ für AMD?
AMD hat keinen Preis bekannt gegeben, aber die Einführung könnte Nvidia unter Druck setzen, seine Preisstrategie für seine KI-GPUs wie die H100 zu überdenken, die 30.000 US-Dollar oder mehr kosten kann. Niedrigere GPU-Preise bedeuten geringere Kosten für die Bereitstellung generativer KI-Anwendungen.Zunächst wird AMD eine Infinity-Architektur anbieten, die acht seiner M1300X-Beschleuniger in einem System vereint – ähnlich den Systemen von Nvidia und Google, die acht oder mehr GPUs in einer einzigen Box für KI-Anwendungen vereinen.
Amazon darf nutzen AMD-GPU Chips
Laut einem Bericht von Reuters erwägt Amazon Web Services den Einsatz neuer KI-Chips von AMD, eine endgültige Entscheidung muss der weltgrößte Cloud-Computing-Anbieter allerdings noch treffen.„Wir arbeiten immer noch gemeinsam daran, wo genau das zwischen AWS und AMD landen wird, aber daran arbeiten unsere Teams gemeinsam“, sagte Dave Brown, Vizepräsident für Elastic Compute Cloud bei Amazon.„Hier haben wir von der Arbeit profitiert, die sie rund um das Design geleistet haben, das sich in bestehende Systeme integrieren lässt“, fügte er hinzu.
Ende des Artikels