Microsoft setzt voll auf KI. Letztes Jahr stellte das Unternehmen eine vor benutzerdefinierter KI-Chip um die Leistung seiner Infrastruktur zu steigern, um große Sprachmodelle (LLMs) kostengünstig zu trainieren. Microsoft arbeitet angeblich an einem weiteren Schritt, um die Kosten zu senken und die kostspielige Abhängigkeit von Chipherstellern Dritter zu vermeiden KI Servertechnik, um seine Programme auszuführen.
Laut einem Bericht von The Information entwickelt Microsoft Server-Netzwerkkarten, um die von Nvidia angebotenen zu ersetzen, was dem Unternehmen helfen wird, etwas Geld zu sparen. Serverkarten übertragen Daten schnell zwischen Servern, heißt es in dem Bericht, und betonten, dass diese auch die Leistung seiner Nvidia-Chipserver sowie seiner Maia-AI-Chips verbessern könnten.
„Der Softwareriese entwickelt eine Netzwerkkarte, um sicherzustellen, dass Daten schnell zwischen seinen Servern übertragen werden, als Alternative zu einer von Nvidia bereitgestellten“, heißt es in dem Bericht unter Berufung auf eine Person mit direktem Wissen.
„Das Unternehmen hofft, dass die neue Netzwerkausrüstung nicht nur möglicherweise Geld für Microsoft einspart, sondern auch die Leistung seiner Nvidia-Chipserver verbessern wird“, fügte er hinzu.
Der Schritt erfolgt, da Nvidia auf der steigenden Nachfragewelle nach seinen KI-Chips reitet. Berichten zufolge arbeiten nicht nur Microsoft, sondern mehrere Unternehmen an hauseigenen Chips und anderer Infrastruktur, um die Leistung ihrer Systeme zu steigern und ihre Abhängigkeit von Nvidia zu verringern.
Microsofts KI-Infrastrukturpläne
Auf der Microsoft Ignite 2023 stellte das Unternehmen den Microsoft Azure Maia 100 AI Accelerator vor, der für die Durchführung von KI-Aufgaben optimiert ist.
Damals sagte Scott Guthrie, Executive Vice President der Cloud + AI Group von Microsoft, dass das Unternehmen die Infrastruktur aufbaut, um KI-Innovationen zu unterstützen, und dass Microsoft „jeden Aspekt unserer Rechenzentren neu überdenkt, um den Bedürfnissen unserer Kunden gerecht zu werden“. Microsoft hat angekündigt, dass die Chips noch in diesem Jahr auf den Markt kommen werden.
Laut einem Bericht von The Information entwickelt Microsoft Server-Netzwerkkarten, um die von Nvidia angebotenen zu ersetzen, was dem Unternehmen helfen wird, etwas Geld zu sparen. Serverkarten übertragen Daten schnell zwischen Servern, heißt es in dem Bericht, und betonten, dass diese auch die Leistung seiner Nvidia-Chipserver sowie seiner Maia-AI-Chips verbessern könnten.
„Der Softwareriese entwickelt eine Netzwerkkarte, um sicherzustellen, dass Daten schnell zwischen seinen Servern übertragen werden, als Alternative zu einer von Nvidia bereitgestellten“, heißt es in dem Bericht unter Berufung auf eine Person mit direktem Wissen.
„Das Unternehmen hofft, dass die neue Netzwerkausrüstung nicht nur möglicherweise Geld für Microsoft einspart, sondern auch die Leistung seiner Nvidia-Chipserver verbessern wird“, fügte er hinzu.
Der Schritt erfolgt, da Nvidia auf der steigenden Nachfragewelle nach seinen KI-Chips reitet. Berichten zufolge arbeiten nicht nur Microsoft, sondern mehrere Unternehmen an hauseigenen Chips und anderer Infrastruktur, um die Leistung ihrer Systeme zu steigern und ihre Abhängigkeit von Nvidia zu verringern.
Microsofts KI-Infrastrukturpläne
Auf der Microsoft Ignite 2023 stellte das Unternehmen den Microsoft Azure Maia 100 AI Accelerator vor, der für die Durchführung von KI-Aufgaben optimiert ist.
Damals sagte Scott Guthrie, Executive Vice President der Cloud + AI Group von Microsoft, dass das Unternehmen die Infrastruktur aufbaut, um KI-Innovationen zu unterstützen, und dass Microsoft „jeden Aspekt unserer Rechenzentren neu überdenkt, um den Bedürfnissen unserer Kunden gerecht zu werden“. Microsoft hat angekündigt, dass die Chips noch in diesem Jahr auf den Markt kommen werden.