Microsoft bringt ein Deepseek -Modell in seine Cloud mit

Der enge Partner und Mitarbeiter von Microsoft, OpenAI, könnte darauf hindeuten, dass Deepseek Stahl seine IP und verletzte seine Nutzungsbedingungen. Aber Microsoft möchte immer noch Deepseeks glänzende neue Modelle auf seiner Cloud -Plattform.

Microsoft kündigte heute an, dass R1, Deepseeks sogenanntes Argumentationsmodell, auf dem Azure AI Foundry Service, der Microsoft-Plattform, eine Reihe von AI-Diensten für Unternehmen im Rahmen eines einzelnen Banners zusammenbringt. In a Blog -BeitragMicrosoft sagte, dass die Version von R1 auf Azure AI Foundry „strenge rote Teaming- und Sicherheitsbewertungen unterzogen wurde“, einschließlich „automatisierte Bewertungen des Modellverhaltens und umfangreiche Sicherheitsüberprüfungen zur Minderung potenzieller Risiken“.

Laut Microsoft können Kunden in naher Zukunft „destillierte“ Aromen von R1 verwenden, um lokal auf Copilot+ PCs zu laufen, Microsofts Marke von Windows -Hardware, die bestimmte Anforderungen an die KI -Bereitschaft erfüllt.

„Wenn wir den Modellkatalog in der Azure AI Foundry weiter erweitern, sind wir gespannt, wie Entwickler und Unternehmen nutzen […] R1, um die Herausforderungen der realen Welt zu bewältigen und transformative Erfahrungen zu liefern “, fuhr Microsoft in der Post fort.

Die Hinzufügung von R1 zu Microsofts Cloud -Diensten ist merkwürdig, wenn man bedenkt, dass Microsoft Berichten zufolge eine Untersuchung in Deepseeks potenziellen Missbrauch seiner und OpenAI -Dienste initiiert hat. Nach Angaben von Sicherheitsforschern, die für Microsoft arbeiten, hat Deepseek möglicherweise eine große Menge an Daten unter Verwendung der OpenAI -API im Herbst 2024 geschliffen. Microsoft, der auch OpenAs größter Aktionär von OpenAi über die verdächtige Aktivität benachrichtigt, die die verdächtige Aktivität, pro Bloomberg.

Aber R1 ist das Gespräch der Stadt, und Microsoft wurde möglicherweise überredet, sie in die Wolkenfalte zu bringen, während es immer noch Anziehungskraft hält.

Unklar ist, ob Microsoft Änderungen am Modell vorgenommen hat, um seine Genauigkeit zu verbessern – und seine Zensur zu bekämpfen. Nach einem Test Nach der Informationsverantwortungsorganisation Newsguard bietet R1 in 83% der Fälle ungenaue Antworten oder Nicht-Antworten, wenn er nach Nachrichten zu den Nachrichten gefragt wird. Ein separater Test stellte fest, dass R1 sich weigert, 85% der Eingabeaufforderungen im Zusammenhang mit China zu beantworten, möglicherweise eine Folge der Regierungszensur, zu der im Land entwickelte KI -Modelle untersucht werden.

tch-1-tech