„Wir überdenken sogar die Art und Weise, wie wir programmieren, indem wir CodeCompose einsetzen, einen generativen KI-basierten Codierungsassistenten, den wir entwickelt haben, um unsere Entwickler während des gesamten Softwareentwicklungslebenszyklus produktiver zu machen“, sagte das Unternehmen in einer Erklärung.Mit der neuen KI-Infrastruktur möchte Meta eine skalierbare Grundlage schaffen, um Möglichkeiten in Bereichen wie generativer KI und dem Metaversum zu ermöglichen.Was ist MTIA?
MTIA ist eine firmeneigene, maßgeschneiderte Beschleuniger-Chip-Familie für Inferenz-Workloads. Es soll eine höhere Rechenleistung und Effizienz bieten als CPUs und ist auf die internen Arbeitslasten des Unternehmens zugeschnitten. Laut Meta werden sowohl MTIA-Chips als auch GPUs dazu beitragen, eine bessere Leistung, geringere Latenz und eine höhere Effizienz für jede Arbeitslast zu erzielen.MTIA wird vom KI-Rechenzentrum des Unternehmens unterstützt, das nicht nur die aktuellen Produkte unterstützt, sondern auch zukünftige Generationen von KI-Hardware für Training und Inferenz ermöglicht. Das Rechenzentrum wird ein KI-optimiertes Design haben, flüssigkeitsgekühlte KI-Hardware und ein leistungsstarkes KI-Netzwerk unterstützen, das Tausende von KI-Chips für KI-Trainingscluster im Rechenzentrumsmaßstab miteinander verbindet. Auch Microsoft und Samsung bauen KI-Chips
Auch Microsoft und Samsung sollen an KI-Chips arbeiten. Kürzlich hieß es in einem Bericht, dass Microsoft mit AMD an KI-Chips arbeitet, um Nvidia entgegenzuwirken. In einem separaten Bericht wurde behauptet, dass Samsung und Naver planen, in der zweiten Hälfte dieses Jahres KI-Chips vorzustellen, um mit Nvidias Grafikprozessor (GPU) zu konkurrieren, der KI-Plattformen antreibt. Nvidia dominiert derzeit den Markt für KI-fähige Chips.
Ende des Artikels