Amazon: Amazon stellt KI-Chip vor, um mit Microsoft, Nvidia und AMD zu konkurrieren

Amazon Amazon stellt KI Chip vor um mit Microsoft Nvidia und
Amazonas hat auf der re:Invent-Konferenz in Las Vegas einen Chip für künstliche Intelligenz (KI) namens Trainium2 vorgestellt, mit dem große Sprachmodelle trainiert werden können. Die Entwicklung kommt wie andere Technologieunternehmen und Chiphersteller, darunter Microsoft, Nvidia und AWS haben ihre Prozessoren auf den Markt gebracht.
Amazon gab an, dass der Trainium2-Chip ein bis zu viermal schnelleres Training als Trainium-Chips der ersten Generation liefern kann und eine bis zu zweifache Energieeffizienz bietet. Unternehmen können diese Chips in Amazon Elastic Compute Cloud (Amazon EC2) UltraClustern (bis zu 100.000 Chips).
„Trn2-Instanzen sollen es Kunden ermöglichen, bis zu 100.000 Trainium2-Chips in EC2-UltraClustern der nächsten Generation zu skalieren, die mit AWS Elastic Fabric Adapter (EFA)-Netzwerken im Petabit-Maßstab verbunden sind, bis zu 65 Exaflops an Rechenleistung liefern und Kunden On-Demand-Zugriff darauf ermöglichen.“ „Leistung der Supercomputer-Klasse“, sagte das Unternehmen.
Amazon wird nächstes Jahr damit beginnen, die Trainium2-Chips anzubieten. Das Unternehmen bietet weiterhin Zugriff auf Nvidias neueste H200 AI-Grafikprozessoren.
Amazon führt AWS Graviton4 ein
Amazon kündigte außerdem den Graviton 4-Chip an, den bislang leistungsstärksten und energieeffizientesten AWS-Prozessor des Unternehmens für ein breites Spektrum an Cloud-Workloads. Nach Angaben des Unternehmens bietet Graviton4 eine bis zu 30 % bessere Rechenleistung, 50 % mehr Kerne und 75 % mehr Speicherbandbreite als Graviton3-Prozessoren der aktuellen Generation.
Der Maia 100-Chip von Microsoft
Die Entwicklung erfolgt einige Wochen, nachdem Microsoft den Microsoft Azure Maia 100 AI-Chip vorgestellt hat auf der Ignite 2023. Der Chip ist für die Bewältigung von KI-Aufgaben und generativer KI optimiert. Außerdem wurde Microsoft Azure Cobalt CPU angekündigt, ein Arm-basierter Prozessor zur Ausführung allgemeiner Rechenlasten in der Microsoft Cloud.
Nvidia hingegen bietet H100-GPUs an, die sich wie warme Semmeln verkaufen. Das Unternehmen hat auch Chips für den chinesischen Markt entwickelt, nachdem die USA die Regeln für Chipexporte verschärft hatten. In der Zwischenzeit, AMD ist auch mit seinem Instinct MI300X-Prozessor im Streit, der angeblich die Arbeit mehrerer GPUs übernehmen kann.

toi-tech