Sicherheitsforscher warnen, dass Daten, die dem Internet ausgesetzt sind, auch für einen Moment in Online -Generativ -AI -Chatbots wie Microsoft Copilot verweilen können, lange nachdem die Daten privat gemacht wurden.
Laut neuen Erkenntnissen von Lasso, einem israelischen Cybersicherheitsunternehmen, das sich auf aufstrebende generative KI-Bedrohungen konzentriert, sind Tausende von einst öffentlichen Github-Repositories aus einigen der größten Unternehmen der Welt betroffen, einschließlich Microsoft’s.
Der Lasso-Mitbegründer Ophir Dror sagte gegenüber Tech, dass das Unternehmen Inhalte aus seinem eigenen Github-Repository gefunden habe, das in Copilot erschien, weil es von der Bing-Suchmaschine von Microsoft indexiert und zwischengespeichert worden war. Dror sagte, dass das Repository, das für einen kurzen Zeitraum fälschlicherweise veröffentlicht worden war, seitdem auf privat eingestellt worden sei und auf Github zugegriffen worden sei, gab einen Fehler „nicht gefunden“ zurück.
„Überraschenderweise fanden wir auf Copilot eine unserer eigenen privaten Repositorys“, sagte Dror. „Wenn ich im Internet stöbern würde, würde ich diese Daten nicht sehen. Aber jeder auf der Welt könnte Copilot die richtige Frage stellen und diese Daten erhalten. “
Nachdem festgestellt wurde, dass Daten zu Github, auch kurz, möglicherweise durch Tools wie Copilot entlarvt werden könnten, untersuchte Lasso weiter.
Lasso extrahierte eine Liste von Repositorys, die zu jedem Zeitpunkt im Jahr 2024 öffentlich waren, und identifizierte die Repositorys, die seitdem gelöscht oder auf privat eingestellt worden waren. Mit dem Caching-Mechanismus von BING stellte das Unternehmen fest, dass mehr als 20.000 Github-Repositories über Copilot zugänglich waren und mehr als 16.000 Organisationen betreffen.
Zu den betroffenen Organisationen gehören laut Lasso Amazon Web Services, Google, IBM, PayPal, Tencent und Microsoft selbst. Für einige betroffene Unternehmen könnte Copilot aufgefordert werden, vertrauliche Github -Archive zurückzugeben, die geistiges Eigentum, sensible Unternehmensdaten, Zugriffsschlüssel und Token enthalten, sagte das Unternehmen.
Lasso stellte fest, dass es Copilot verwendet hat, um den Inhalt eines Github -Repo – seitdem von Microsoft gelöscht zu haben, ein Tool ausführte, das die Erstellung von „offensiven und schädlichen“ KI -Bildern mit Microsoft Cloud KI -Dienst ermöglichte.
Dror sagte, dass Lasso an alle betroffenen Unternehmen wandte, die von der Datenexposition „stark betroffen“ waren, und sie riet, gefährdete Schlüssel zu drehen oder widerzuziehen.
Keines der von Lasso genannten betroffenen Unternehmen antwortete auf die Fragen von Tech. Microsoft antwortete auch nicht auf die Anfrage von Tech.
Lasso informierte Microsoft über seine Ergebnisse im November 2024. Microsoft sagte Lasso, dass es das Problem als „niedriger Schweregrad“ eingestuft habe, und erklärte, dass dieses Caching -Verhalten „akzeptabel“ sei, Microsoft Keine Links zum Cache von Bing mehr enthalten in seinen Suchergebnissen ab Dezember 2024.
LAsso sagt jedoch, dass die Caching -Funktion zwar deaktiviert war, Copilot jedoch immer noch Zugriff auf die Daten hatte, obwohl sie durch herkömmliche Websuche nicht sichtbar war, was auf eine temporäre Korrektur hinweist.