Nvidia: Wie das neue KI-System von Facebook eine „gute Nachricht“ für Nvidia sein könnte

Nvidia Wie das neue KI System von Facebook eine „gute Nachricht
Facebook-Muttergesellschaft Meta Berichten zufolge arbeitet das Unternehmen an einem neuen System für künstliche Intelligenz (KI), das genauso leistungsfähig sein könnte wie das fortschrittlichste von OpenAI angebotene Large Language Model (LLM), heißt es in einem Bericht.
Das von Microsoft unterstützte Unternehmen bietet derzeit GPT-4 LLM an, das ChatGPT unterstützt und als Teil des ChatGPT Plus-Abonnements verfügbar ist. Die gleiche Technologie treibt auch an MicrosoftCopilot AI, das das Unternehmen in seine Produkte und Dienste integriert hat, einschließlich Windows 11.
Unter Berufung auf mit der Angelegenheit vertraute Personen behauptete das Wall Street Journal in einem Bericht, Meta strebe die Fertigstellung seines neuen KI-Modells im nächsten Jahr an und plane, mit dem Training Anfang 2024 zu beginnen. Der Bericht behauptet auch, dass es mehrere neue Modelle geben werde Mal leistungsfähiger als seine kommerzielle Version namens Llama 2.
Meta brachte Llama 2 Anfang des Jahres auf den Markt und das Unternehmen gab an, dass dieses Modell auf 40 % mehr Daten trainiert wurde als das Llama-Modell und über die doppelte Kontextlänge verfügt. Laienhaft ausgedrückt führt dies zu kontextbezogeneren Antworten und besseren Ergebnissen.
„Gute Nachrichten“ für Nvidia
Um dieses Modell auszuführen, kauft Meta Berichten zufolge mehr Nvidia H100 KI-Trainingschips und macht die Infrastruktur leistungsfähiger, sodass es nicht auf die Cloud-Plattform Azure von Microsoft angewiesen ist, um den neuen Chatbot zu trainieren.
Der Chip ist sehr gefragt und wird von Unternehmen wie Microsoft, Google und OpenAI. Google hat kürzlich seine A3-Supercomputer mit Nvidia H100-GPUs vorgestellt. Der Kauf weiterer Chips durch Meta könnte dazu beitragen, dass die Gewinne des Unternehmens steigen.
Laut einem Bericht der Financial Times ist TSMC auf dem besten Weg, in diesem Jahr 550.000 H100-GPUs an Nvidia zu liefern, mit einem potenziellen H100-Umsatz von 13,75 bis 22 Milliarden US-Dollar in diesem Jahr.
„Mit geschätzten Margen von 60–90 % pro Chip könnte Nvidia allein in diesem Jahr mit H100-Verkäufen einen Gewinn von über 10 Milliarden US-Dollar erzielen“, heißt es in dem FT-Bericht.
Berichten zufolge gehören auch andere Akteure im KI-Geschäft dazu Apfel. Es wurde berichtet, dass das Unternehmen ein eigenes Framework namens „Ajax“ entwickelt, um LLM zu erstellen, und außerdem einen Chatbot testet, der angeblich „Apple GPT‚.

toi-tech