AMD erweitert sein Rechenzentrumsportfolio zur Verbesserung der generativen KI

AMD kündigte bei der „Rechenzentrums- und KI-Technologie-Premiere“ des Unternehmens die Produkte, Strategien und Ökosystempartner an, die den Anspruch erheben, „die Zukunft des Computings zu gestalten und die nächste Phase der Rechenzentrumsinnovation hervorzuheben“. Das Unternehmen wurde auf der Bühne von Führungskräften von Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure Und PyTorch um die technologischen Partnerschaften vorzustellen, um die nächste Generation verbesserter CPU- und KI-Beschleunigerlösungen auf den Markt zu bringen.Für Rechenzentren optimierte Recheninfrastruktur
AMD hat eine Reihe von Updates für seine EPYC-Familie der 4. Generation vorgestellt. Es ist darauf ausgelegt, Kunden die erforderliche Workload-Spezialisierung zu bieten, um den individuellen Anforderungen von Unternehmen gerecht zu werden. Das Unternehmen betonte außerdem, wie der AMD EPYC-Prozessor der 4. Generation die Leistung und Energieeffizienz weiter vorantreiben wird. AMD und AWS präsentierten zusammen mit AWS eine Vorschau auf die M7a-Instanzen der nächsten Generation der Amazon Elastic Compute Cloud (Amazon EC2), die mit AMD EPYC-Prozessoren der 4. Generation („Genoa“) ausgestattet sind. Außerhalb der Veranstaltung Orakel kündigte Pläne an, neue Oracle Computing Infrastructure (OCI) E5-Instanzen mit AMD EPYC-Prozessoren der 4. Generation verfügbar zu machen.

Das Unternehmen stellte außerdem die AMD EPYC 97X4-Prozessoren der 4. Generation vor, die früher den Codenamen „Bergamo“ trugen. Mit 128 „Zen 4c“-Kernen pro Sockel bieten diese Prozessoren angeblich die höchste vCPU-Dichte, Energieeffizienz und Leistung für Apps, die in der Cloud laufen. Zu AMD gesellte sich auch Meta, wo der Social-Media-Riese darüber sprach, wie gut diese Prozessoren für seine wichtigsten Apps wie Instagram, WhatsApp und mehr geeignet sind. Meta verzeichnete auch Leistungssteigerungen mit AMD EPYC 97×4-Prozessoren der 4. Generation im Vergleich zu AMD EPYC der 3. Generation bei verschiedenen Arbeitslasten. Der neueste Prozessor bietet TCO-Verbesserungen und das Unternehmen erläuterte, wie AMD und Meta die EPYC-CPUs für Metas Energieeffizienz- und Rechendichteanforderungen optimiert haben.AMD möchte mit technischem Computing bessere Produkte ermöglichen
AMD stellte die AMD EPYC-Prozessoren der 4. Generation mit AMD 3D V-Cache-Technologie vor, die weltweit leistungsstärkste x86-Server-CPU für technische Datenverarbeitung. Microsoft gab die allgemeine Verfügbarkeit von Azure HBv4- und HX-Instanzen bekannt, die auf AMD EPYC-Prozessoren der 4. Generation mit AMD 3D V-Cache-Technologie basieren.Die AI-Plattform von AMD vermittelt seine KI-Vision
Das Unternehmen machte außerdem eine Reihe von Ankündigungen, in denen es seine AI-Plattform-Strategie vorstellte, die Kunden einen Cloud-Vorsprung gegenüber dem Endpunkt-Portfolio an Hardwareprodukten verschafft. Um skalierbare und allgegenwärtige KI-Lösungen zu entwickeln, ist eine intensive Zusammenarbeit im Softwarebereich der Branche erforderlich.AMD hat außerdem den weltweit fortschrittlichsten Beschleuniger für generative KI vorgestellt. Das Unternehmen enthüllte außerdem neue Details zur Beschleunigerfamilie der AMD Instinct MI300-Serie. Dazu gehört die Einführung des AMD Instinct MI300X-Beschleunigers, des weltweit fortschrittlichsten Beschleunigers für generative KI. Der MI300X basiert auf der AMD CDNA 3-Beschleunigerarchitektur der nächsten Generation und unterstützt bis zu 192 GB HBM3-Speicher. Damit soll die Rechen- und Speichereffizienz bereitgestellt werden, die für das Training großer Sprachmodelle und die Inferenz für generative KI-Workloads erforderlich ist. Mit dem großen Speicher des AMD Instinct MI300X können Kunden jetzt große Sprachmodelle wie Falcon-40, ein 40B-Parametermodell, auf einem einzigen MI300X-Beschleuniger unterbringen. AMD stellte auch den AMD vor Instinct-Plattformdas acht MI300X-Beschleuniger in einem branchenüblichen Design vereint und so die ideale Lösung für KI-Inferenz und -Training bietet. AMD wird den MI300X ab dem dritten Quartal bei seinen Hauptkunden testen. Das Unternehmen gab außerdem bekannt, dass der AMD Instinct MI300A, der weltweit erste APU-Beschleuniger für HPC- und KI-Workloads, jetzt als Muster an Kunden geliefert wird.Das Unternehmen stellte außerdem das ROCm-Software-Ökosystem für Rechenzentrumsbeschleuniger vor. AMD betonte außerdem die Bereitschaft und Zusammenarbeit mit Branchenführern, ein offenes KI-Software-Ökosystem zusammenzustellen. PyTorch besprach die Arbeit zwischen AMD und AMD am Upstream des ROCm-Software-Stacks und bietet sofortige „Day Zero“-Unterstützung für PyTorch 2.0 mit ROCm-Version 5.4.2 auf allen AMD Instinct-Beschleunigern. Die Integration soll Entwicklern eine breite Palette von KI-Modellen zur Verfügung stellen, die von unterstützt werden
PyTorch, die kompatibel und „out of the box“ auf AMD-Beschleunigern einsatzbereit sind.Hugging Face, die offene Plattform für KI-Entwickler, kündigte ebenfalls eine Optimierung an
Tausende Modelle auf AMD-Plattformen, von AMD Instinct-Beschleunigern bis hin zu AMD Ryzen- und AMD EPYC-Prozessoren, AMD Radeon GPUs und Versal und adaptive Alveo-Prozessoren.Ein Netzwerkportfolio für die Cloud und Unternehmen
AMD präsentierte auch ein Netzwerkportfolio, einschließlich AMD Pensando DPU, AMD Ultra Low Latency NICs und AMD Adaptive NICs. Darüber hinaus kombinieren AMD Pensando DPUs einen Software-Stack mit „Zero Trust Security“ und einem führenden programmierbaren Paketprozessor, um die intelligenteste und leistungsstärkste DPU der Welt zu schaffen. Die AMD Pensando DPU wird in großem Umfang bei Cloud-Partnern wie IBM Cloud, Microsoft Azure und Oracle Compute Infrastructure bereitgestellt. Im Unternehmen wird es im HPE Aruba CX 10000 Smart Switch und bei Kunden wie dem führenden IT-Dienstleistungsunternehmen DXC sowie als Teil der VMware vSphere Distributed Services Engine eingesetzt, um die Anwendungsleistung für Kunden zu beschleunigen.AMD stellte sogar die nächste Generation seiner DPU-Roadmap mit dem Codenamen „Giglio“ vor, die darauf abzielt, den Kunden im Vergleich zu Produkten der aktuellen Generation eine verbesserte Leistung und Energieeffizienz zu bieten, wenn sie voraussichtlich Ende 2023 verfügbar sein wird.Das Unternehmen kündigte außerdem das AMD Pensando Software-in-Silicon Developer Kit (SSDK) an, das Kunden die Möglichkeit gibt, schnell Dienste zu entwickeln oder zu migrieren, um sie auf der programmierbaren DPU AMD Pensando P4 in Abstimmung mit den vorhandenen umfangreichen Funktionen bereitzustellen, die bereits auf der programmierbaren DPU implementiert sind AMD Pensando-Plattform. Mit dem AMD Pensando SSDK können Kunden die Leistungsfähigkeit der AMD Pensando DPU nutzen und Netzwerkvirtualisierungs- und Sicherheitsfunktionen innerhalb ihrer Infrastruktur anpassen, in Abstimmung mit den vorhandenen Funktionen, die bereits auf der Pensando-Plattform implementiert sind.



Ende des Artikels

gn-tech