Die benutzerdefinierten Cobalt-Chips von Microsoft werden nächste Woche in Azure verfügbar sein

Wie Tech erfahren hat, wird Microsoft seine benutzerdefinierten Cobalt-100-Chips nächste Woche auf seiner Build-Konferenz als öffentliche Vorschau für Kunden vorstellen.

In einem Analystenbriefing vor Build verglich Scott Guthrie, Executive Vice President der Microsoft Cloud and AI Group bei Microsoft, Cobalt direkt mit den Graviton-Chips von AWS, die Entwicklern schon seit einigen Jahren zur Verfügung stehen. Guthrie sagte, dass die Chips von Microsoft eine um 40 % bessere Leistung gegenüber anderen ARM-Chips auf dem Markt bieten werden. Adobe, Snowflake und andere haben bereits damit begonnen, die neuen Chips zu nutzen.

Microsoft hat seine Cobalt-Chips erstmals im vergangenen November angekündigt. Diese 64-Bit-Chips basieren auf der Arm-Architektur und verfügen über 128 Kerne.

Zusätzlich zu den Cobalt-Chips wird Microsft nächste Woche auch die MI300X-Beschleuniger von AMD für Azure-Kunden verfügbar machen. Obwohl AMD ein großer GPU-Hersteller ist, liegt es im KI-Bereich lange hinter Nvidia, aber da die großen Cloud-Anbieter nach Alternativen zu Nvidias teuren Chips suchen – und da AMD in diesem Bereich durch bessere Softwareunterstützung etwas an Boden gewinnt – Auch diese neuen Chips sind mittlerweile ein begehrtes Gut.

Guthrie beschrieb es als „die derzeit kostengünstigste GPU für Azure OpenAI“.

Zu den weiteren Neuigkeiten, die wir erfahren haben, gehört, dass Microsoft nächste Woche auf der Build seine Preise für den Zugriff auf und die Ausführung großer Sprachmodelle senken wird. Wie genau das aussehen wird, bleibt allerdings unklar.

Microsoft wird außerdem mit einem neuen „Echtzeit-Intelligence-System“ in die Vorschau gehen, das das Streamen von Echtzeitdaten in Fabric, das Datenanalysesystem von Microsoft, ermöglicht. Dieses System bietet eine native Kafka-Integration, unterstützt aber auch AWS Kinesis und Google Cloud Pub/Sub Daten-Streaming-Systeme.

Microsoft wird außerdem eine Partnerschaft mit Snowflake bekannt geben. Fabric wird nun das Iceberg-Format von Snowflake unterstützen (zusätzlich zu Databricks Parquet), was „nahtlose Interoperabilität mit Snowflake ermöglicht und es ermöglicht, dass alle Daten, die sich in Snowflake befinden, in Fabric angezeigt werden und umgekehrt.“

Und für Sie Copilot-Fans: Microsoft plant die Einführung einer neuen Funktion, die es Entwicklern ermöglicht, ihre Azure-Ressourcen direkt von Copilot aus in natürlicher Sprache zu verwalten. „Das wird eine noch engere Entwicklerschleife mit natürlicher Sprache in Ihrem Entwicklungs-Stack und Azure ermöglichen“, sagte Guthrie. Dieses System basiert auf einem gemeinsamen Erweiterbarkeitsmechanismus, sodass sich auch andere Anbieter daran anschließen und ähnliche Funktionen anbieten können.

tch-1-tech