KI-Forscher von Microsoft haben versehentlich Terabyte interner sensibler Daten offengelegt

KI Forscher von Microsoft haben versehentlich Terabyte interner sensibler Daten offengelegt

Microsoft-KI-Forscher haben versehentlich Dutzende Terabyte sensibler Daten, einschließlich privater Schlüssel und Passwörter, offengelegt, während sie einen Speicherbereich mit Open-Source-Trainingsdaten auf GitHub veröffentlichten.

In einer mit Tech geteilten Studie sagte das Cloud-Sicherheits-Startup Wiz, es habe im Rahmen seiner laufenden Arbeiten zur versehentlichen Offenlegung von in der Cloud gehosteten Daten ein GitHub-Repository entdeckt, das zur KI-Forschungsabteilung von Microsoft gehört.

Leser des GitHub-Repositorys, das Open-Source-Code und KI-Modelle für die Bilderkennung bereitstellte, wurden angewiesen, die Modelle von einer Azure Storage-URL herunterzuladen. Wiz stellte jedoch fest, dass diese URL so konfiguriert war, dass Berechtigungen für das gesamte Speicherkonto gewährt wurden, wodurch versehentlich zusätzliche private Daten offengelegt wurden.

Zu diesen Daten gehörten 38 Terabyte vertraulicher Informationen, darunter die persönlichen Backups der PCs zweier Microsoft-Mitarbeiter. Die Daten enthielten auch andere sensible persönliche Daten, darunter Passwörter für Microsoft-Dienste, geheime Schlüssel und über 30.000 interne Microsoft Teams-Nachrichten von Hunderten von Microsoft-Mitarbeitern.

Die URL, die diese Daten seit 2020 offengelegt hatte, war laut Wiz auch falsch konfiguriert, um „vollständige Kontrolle“ anstelle von „schreibgeschützten“ Berechtigungen zu ermöglichen, was bedeutete, dass jeder, der wusste, wo er suchen musste, möglicherweise Schadsoftware löschen, ersetzen und einschleusen konnte Inhalt in sie hinein.

Wiz stellt fest, dass das Speicherkonto nicht direkt offengelegt wurde. Vielmehr haben die KI-Entwickler von Microsoft ein übermäßig freizügiges SAS-Token (Shared Access Signature) in die URL eingefügt. SAS-Token sind ein von Azure verwendeter Mechanismus, der es Benutzern ermöglicht, gemeinsam nutzbare Links zu erstellen, die Zugriff auf die Daten eines Azure Storage-Kontos gewähren.

„KI eröffnet Technologieunternehmen ein enormes Potenzial“, sagte Ami Luttwak, Mitbegründer und CTO von Wiz, gegenüber Tech. „Während Datenwissenschaftler und Ingenieure jedoch darum kämpfen, neue KI-Lösungen in die Produktion zu bringen, erfordern die riesigen Datenmengen, die sie verarbeiten, zusätzliche Sicherheitsprüfungen und Schutzmaßnahmen. Da viele Entwicklungsteams riesige Datenmengen bearbeiten, mit Kollegen teilen oder an öffentlichen Open-Source-Projekten zusammenarbeiten müssen, werden Fälle wie der von Microsoft immer schwieriger zu überwachen und zu vermeiden.“

Wiz sagte, es habe seine Ergebnisse am 22. Juni an Microsoft weitergegeben, und Microsoft habe den SAS-Token zwei Tage später, am 24. Juni, widerrufen. Microsoft sagte, es habe seine Untersuchung zu möglichen organisatorischen Auswirkungen am 16. August abgeschlossen.

In einem Blogbeitrag, der vor der Veröffentlichung mit Tech geteilt wurde, sagte das Security Response Center von Microsoft, dass „keine Kundendaten offengelegt wurden und keine anderen internen Dienste aufgrund dieses Problems gefährdet wurden“.

Microsoft sagte, dass es als Ergebnis der Forschung von Wiz den Secret-Spanning-Service von GitHub erweitert hat, der alle öffentlichen Open-Source-Codeänderungen auf Offenlegung von Anmeldeinformationen und anderen Geheimnissen im Klartext überwacht, um alle SAS-Token einzuschließen, die möglicherweise übermäßig freizügige Abläufe oder Berechtigungen haben.

tch-1-tech