Auf ihrer gemeinsamen Suche nach einer Alternative zu NvidiaGPUs zum Trainieren großer Sprachmodelle, Meta, Microsoft Und OpenAI haben angekündigt, dass sie es nutzen werden AMDGPUs. Dieser Schritt markiert eine bedeutende Veränderung in der Landschaft der KI-Hardware und läutet möglicherweise eine neue Ära des Wettbewerbs und der Innovation ein.
Warum der Schritt für die Entwicklung der KI wichtig ist
Die Entscheidung hat erhebliches Gewicht, wenn man die herausragende Rolle von Meta, Microsoft und OpenAI dabei bedenkt generative KIspace.Meta beherbergt große Sprachmodelle, Microsoft verfügt über den beeindruckenden Copilot-Assistenten und OpenAI ist der Kopf hinter dem allgegenwärtigen ChatGPT. Diese KI-Systeme, die in der Lage sind, Text, Code, Bilder und mehr zu generieren, sind in hohem Maße auf leistungsstarke Rechenressourcen angewiesen. Bisher war Nvidia in diesem Bereich führend, aber die Instinct-Serie von AMD wird eine Alternative zu anderen Technologieunternehmen darstellen.
Einem Bericht von CNBC zufolge werden die Unternehmen die Instinc MI300X-GPU von AMD verwenden, die in direkter Konkurrenz zur H100-GPU von Nvidia steht. Laut AMD basiert die GPU auf einer neuen Architektur und verfügt über eine erstklassige HBM3-Speicherkapazität von 192 GB sowie eine maximale Speicherbandbreite von 5,3 TB/s, um die Leistung zu liefern, die für immer anspruchsvollere KI-Workloads erforderlich ist.
„Die Beschleuniger der AMD Instinct MI300-Serie wurden mit unseren fortschrittlichsten Technologien entwickelt, bieten führende Leistung und werden in groß angelegten Cloud- und Unternehmensimplementierungen eingesetzt“, sagte Victor Peng, Präsident von AMD. „Durch die Nutzung unseres führenden Hardware-, Software- und offenen Ökosystemansatzes bringen Cloud-Anbieter, OEMs und ODMs Technologien auf den Markt, die Unternehmen in die Lage versetzen, KI-gestützte Lösungen einzuführen und einzusetzen“, fügte er hinzu.
Warum der Schritt für die Entwicklung der KI wichtig ist
Die Entscheidung hat erhebliches Gewicht, wenn man die herausragende Rolle von Meta, Microsoft und OpenAI dabei bedenkt generative KIspace.Meta beherbergt große Sprachmodelle, Microsoft verfügt über den beeindruckenden Copilot-Assistenten und OpenAI ist der Kopf hinter dem allgegenwärtigen ChatGPT. Diese KI-Systeme, die in der Lage sind, Text, Code, Bilder und mehr zu generieren, sind in hohem Maße auf leistungsstarke Rechenressourcen angewiesen. Bisher war Nvidia in diesem Bereich führend, aber die Instinct-Serie von AMD wird eine Alternative zu anderen Technologieunternehmen darstellen.
Einem Bericht von CNBC zufolge werden die Unternehmen die Instinc MI300X-GPU von AMD verwenden, die in direkter Konkurrenz zur H100-GPU von Nvidia steht. Laut AMD basiert die GPU auf einer neuen Architektur und verfügt über eine erstklassige HBM3-Speicherkapazität von 192 GB sowie eine maximale Speicherbandbreite von 5,3 TB/s, um die Leistung zu liefern, die für immer anspruchsvollere KI-Workloads erforderlich ist.
„Die Beschleuniger der AMD Instinct MI300-Serie wurden mit unseren fortschrittlichsten Technologien entwickelt, bieten führende Leistung und werden in groß angelegten Cloud- und Unternehmensimplementierungen eingesetzt“, sagte Victor Peng, Präsident von AMD. „Durch die Nutzung unseres führenden Hardware-, Software- und offenen Ökosystemansatzes bringen Cloud-Anbieter, OEMs und ODMs Technologien auf den Markt, die Unternehmen in die Lage versetzen, KI-gestützte Lösungen einzuführen und einzusetzen“, fügte er hinzu.
Wie Meta, Microsoft und OpenAI AMDs GPU nutzen wollen
Dem Bericht zufolge wird Meta die MI300X-GPUs von AMD für „KI-Inferenz-Workloads wie die Verarbeitung von KI-Aufklebern, die Bildbearbeitung und die Bedienung seines Assistenten“ verwenden. OpenAI hingegen nutzen es alle für Triton 3.0, das der KI-Forschung dient. In der Zwischenzeit wird Microsoft AMD Instinct MI300X-Beschleuniger einsetzen, um die neue Azure ND MI300x v5 Virtual Machine (VM)-Serie zu betreiben, die für KI-Workloads optimiert ist. Oracle plant, AMD Instinct MI300X-Beschleuniger in seinen kommenden generativen KI-Dienst aufzunehmen.