Metaplattformendie Muttergesellschaft von Facebook, plant Berichten zufolge den Einsatz einer neuen Version ihres benutzerdefinierten Chips in ihrem Rechenzentrenwie aus einem internen Dokument hervorgeht, das von der Nachrichtenagentur Reuters überprüft wurde.
Der Chip, der letztes Jahr angekündigt wurde, ist Teil der Bemühungen von Meta, seine Position zu stärken künstliche Intelligenz (KI-)Fähigkeiten. Damit will das Unternehmen seine Abhängigkeit von Nvidia-Chips verringern und die steigenden Kosten im Zusammenhang mit der KI-Entwicklung eindämmen.
Der Schritt erfolgt vor dem Hintergrund von Metas Ziel, generative KI-Produkte auf seinen Plattformen wie Facebook, Instagram, WhatsApp und Hardware wie Ray-Ban-Smart-Brillen zu integrieren. Das Unternehmen hat erheblich in spezielle Chips und die Neukonfiguration von Rechenzentren investiert, um diese Technologien auszuführen.
Was Meta zu sagen hat
Ein Meta-Sprecher bestätigte Pläne, mit der Produktion des aktualisierten Chips im Jahr 2024 zu beginnen, und sagte, dass die Chips kommerziell erhältliche GPUs ergänzen, die Meta weiterhin in großen Mengen beschafft.
„Wir sehen in unseren intern entwickelten Beschleunigern eine hervorragende Ergänzung zu kommerziell erhältlichen GPUs, indem sie die optimale Mischung aus Leistung und Effizienz für Meta-spezifische Workloads liefern“, wurde der Sprecher zitiert.
In dem Bericht heißt es, dass ein erfolgreicher Einsatz eines eigenen Chips in der Größenordnung, in der Meta tätig ist, Hunderte Millionen Dollar an jährlichen Energiekosten und Milliarden an Chip-Einkaufskosten einsparen könnte.
Meta kauft 350.000 Nvidia-GPUs
Anfang des Jahres wurde berichtet, dass das Unternehmen plant, bis Ende des Jahres etwa 350.000 Flaggschiff-Prozessoren „H100“ von Nvidia zu erwerben. Der neue Chip, intern „Artemis“ genannt, konzentriert sich auf Inferenz, im Gegensatz zu GPUs, die hauptsächlich zum Training von KI-Modellen verwendet werden.
Während Metas frühere Versuche mit Herausforderungen konfrontiert waren, gehen Experten davon aus, dass ein Inferenzchip wie Artemis die Effizienz bei der Verarbeitung von Empfehlungsmodellen im Vergleich zu energieintensiven Nvidia-Prozessoren steigern könnte, was möglicherweise zu erheblichen Kosteneinsparungen führen könnte.
Der Chip, der letztes Jahr angekündigt wurde, ist Teil der Bemühungen von Meta, seine Position zu stärken künstliche Intelligenz (KI-)Fähigkeiten. Damit will das Unternehmen seine Abhängigkeit von Nvidia-Chips verringern und die steigenden Kosten im Zusammenhang mit der KI-Entwicklung eindämmen.
Der Schritt erfolgt vor dem Hintergrund von Metas Ziel, generative KI-Produkte auf seinen Plattformen wie Facebook, Instagram, WhatsApp und Hardware wie Ray-Ban-Smart-Brillen zu integrieren. Das Unternehmen hat erheblich in spezielle Chips und die Neukonfiguration von Rechenzentren investiert, um diese Technologien auszuführen.
Was Meta zu sagen hat
Ein Meta-Sprecher bestätigte Pläne, mit der Produktion des aktualisierten Chips im Jahr 2024 zu beginnen, und sagte, dass die Chips kommerziell erhältliche GPUs ergänzen, die Meta weiterhin in großen Mengen beschafft.
„Wir sehen in unseren intern entwickelten Beschleunigern eine hervorragende Ergänzung zu kommerziell erhältlichen GPUs, indem sie die optimale Mischung aus Leistung und Effizienz für Meta-spezifische Workloads liefern“, wurde der Sprecher zitiert.
In dem Bericht heißt es, dass ein erfolgreicher Einsatz eines eigenen Chips in der Größenordnung, in der Meta tätig ist, Hunderte Millionen Dollar an jährlichen Energiekosten und Milliarden an Chip-Einkaufskosten einsparen könnte.
Meta kauft 350.000 Nvidia-GPUs
Anfang des Jahres wurde berichtet, dass das Unternehmen plant, bis Ende des Jahres etwa 350.000 Flaggschiff-Prozessoren „H100“ von Nvidia zu erwerben. Der neue Chip, intern „Artemis“ genannt, konzentriert sich auf Inferenz, im Gegensatz zu GPUs, die hauptsächlich zum Training von KI-Modellen verwendet werden.
Während Metas frühere Versuche mit Herausforderungen konfrontiert waren, gehen Experten davon aus, dass ein Inferenzchip wie Artemis die Effizienz bei der Verarbeitung von Empfehlungsmodellen im Vergleich zu energieintensiven Nvidia-Prozessoren steigern könnte, was möglicherweise zu erheblichen Kosteneinsparungen führen könnte.