Microsoft schlägt Wellen im Bereich der künstlichen Intelligenz (KI) und nachdem Milliarden investiert wurden ChatGPt Entwickler OpenAI soll das Unternehmen an eigenen KI-Prozessoren arbeiten, die zum Trainieren großer Sprachmodelle (LLMs) verwendet werden können.
Unter Berufung auf zwei Personen mit direkter Kenntnis des Projekts berichtete The Information, dass der Softwareriese den Chip bereits seit 2019 entwickelt. Er soll intern den Codenamen Athena tragen und bereits einer kleinen Gruppe von Microsoft und OpenAI zur Verfügung stehen Mitarbeiter, die die Technologie testen.
„Microsoft hofft, dass der Chip eine bessere Leistung erbringen wird, als es derzeit von anderen Anbietern gekauft wird, und so Zeit und Geld für seine kostspieligen KI-Bemühungen spart. Andere prominente Technologieunternehmen, darunter Amazonas, Google und Facebook stellen ebenfalls ihre eigenen internen Chips für KI her“, heißt es in dem Bericht.
Microsoft-Supercomputer mit OpenAI
Microsoft hat bereits einen Supercomputer für das KI-Forschungs-Startup OpenAI gebaut, um große Mengen von Modellen zu trainieren. Für den Supercomputer verlässt sich das Unternehmen auf Tausende von Nvidia A100-Grafikchips, die aneinandergereiht sind, um ChatGPT und Bing AI Chatbot zu unterstützen. Es investierte 2019 1 Milliarde US-Dollar in OpenAI, um einen „massiven, hochmodernen Supercomputer“ zu bauen.
Microsoft hat diesen Supercomputer gebaut, um genügend Rechenleistung bereitzustellen, um eine immer größere Menge von KI-Modellen mit großen Datenmengen über lange Zeiträume zu trainieren und neu zu trainieren.
„Eines der Dinge, die wir aus der Forschung gelernt haben, ist, dass die Genauigkeit des Modells umso besser ist, je größer das Modell ist, je mehr Daten Sie haben und je länger Sie trainieren können“, sagte Nidhi Chappell, Microsoft-Produktleiterin für Azure High -Performance Computing und KI.
Googles TPU-KI-Chip
Letztes Jahr gab Google bekannt, dass es einen KI-Chip namens Tensor Processing Unit (TPU) entwickelt hat, der speziell für Aufgaben des maschinellen Lernens entwickelt wurde. Es wird behauptet, dass die TPU Billionen von Operationen pro Sekunde verarbeitet und nur wenige Watt Leistung verbraucht.
Die Tensor-Verarbeitungseinheit ist für die Verwendung mit Googles TensorFlow-Software konzipiert, der Open-Source-Softwarebibliothek des Unternehmens für maschinelles Lernen.
Unter Berufung auf zwei Personen mit direkter Kenntnis des Projekts berichtete The Information, dass der Softwareriese den Chip bereits seit 2019 entwickelt. Er soll intern den Codenamen Athena tragen und bereits einer kleinen Gruppe von Microsoft und OpenAI zur Verfügung stehen Mitarbeiter, die die Technologie testen.
„Microsoft hofft, dass der Chip eine bessere Leistung erbringen wird, als es derzeit von anderen Anbietern gekauft wird, und so Zeit und Geld für seine kostspieligen KI-Bemühungen spart. Andere prominente Technologieunternehmen, darunter Amazonas, Google und Facebook stellen ebenfalls ihre eigenen internen Chips für KI her“, heißt es in dem Bericht.
Microsoft-Supercomputer mit OpenAI
Microsoft hat bereits einen Supercomputer für das KI-Forschungs-Startup OpenAI gebaut, um große Mengen von Modellen zu trainieren. Für den Supercomputer verlässt sich das Unternehmen auf Tausende von Nvidia A100-Grafikchips, die aneinandergereiht sind, um ChatGPT und Bing AI Chatbot zu unterstützen. Es investierte 2019 1 Milliarde US-Dollar in OpenAI, um einen „massiven, hochmodernen Supercomputer“ zu bauen.
Microsoft hat diesen Supercomputer gebaut, um genügend Rechenleistung bereitzustellen, um eine immer größere Menge von KI-Modellen mit großen Datenmengen über lange Zeiträume zu trainieren und neu zu trainieren.
„Eines der Dinge, die wir aus der Forschung gelernt haben, ist, dass die Genauigkeit des Modells umso besser ist, je größer das Modell ist, je mehr Daten Sie haben und je länger Sie trainieren können“, sagte Nidhi Chappell, Microsoft-Produktleiterin für Azure High -Performance Computing und KI.
Googles TPU-KI-Chip
Letztes Jahr gab Google bekannt, dass es einen KI-Chip namens Tensor Processing Unit (TPU) entwickelt hat, der speziell für Aufgaben des maschinellen Lernens entwickelt wurde. Es wird behauptet, dass die TPU Billionen von Operationen pro Sekunde verarbeitet und nur wenige Watt Leistung verbraucht.
Die Tensor-Verarbeitungseinheit ist für die Verwendung mit Googles TensorFlow-Software konzipiert, der Open-Source-Softwarebibliothek des Unternehmens für maschinelles Lernen.