Samsung hat die Verwendung von beliebten generativen verboten KI Tools wie die von OpenAI ChatGPT, Google BardeUnd Binunter seinen Mitarbeitern.
Das südkoreanische Unternehmen hat die Mitarbeiter einer seiner umfangreichsten Abteilungen durch ein von Bloomberg geprüftes Memo darüber informiert, dass eine neue Richtlinie eingeführt wurde. Das Unternehmen ist besorgt über die Daten, die an Plattformen für künstliche Intelligenz wie Google Bard und Bing übermittelt werden, da sie auf externen Servern gespeichert sind, was es schwierig macht, sie abzurufen und zu löschen. Diese Daten könnten an andere Benutzer weitergegeben werden, was Samsung beunruhigt
Das Unternehmen führte letzten Monat eine Umfrage durch, um den Einsatz von KI-Tools innerhalb der Organisation zu messen. Die Umfrageergebnisse zeigen, dass 65 Prozent der Befragten angaben, dass die Nutzung solcher Dienste ein Sicherheitsrisiko birgt.
„Das Interesse an generativen KI-Plattformen wie ChatGPT ist intern und extern gewachsen“, sagte Samsung den Mitarbeitern. „Während sich dieses Interesse auf die Nützlichkeit und Effizienz dieser Plattformen konzentriert, gibt es auch wachsende Bedenken hinsichtlich der Sicherheitsrisiken, die von der generativen KI ausgehen.“
Laut dem Memo ist die Implementierung der neuen Richtlinie auf das versehentliche Lecken von internem Quellcode durch Samsung-Ingenieure zurückzuführen, die ihn auf ChatGPT hochgeladen haben.
„Das Hauptquartier überprüft Sicherheitsmaßnahmen, um eine sichere Umgebung für die sichere Nutzung generativer KI zu schaffen, um die Produktivität und Effizienz der Mitarbeiter zu steigern“, heißt es in dem Memo. „Bis diese Maßnahmen vorbereitet sind, schränken wir jedoch den Einsatz von generativer KI vorübergehend ein.“
Laut einem Bericht koreanischer Medien haben Samsung-Mitarbeiter Unternehmensgeheimnisse auf ChatGPT hochgeladen.
Ein Mitarbeiter kopierte sogar den Quellcode eines Downloadprogramms für Halbleiterdatenbanken, ein anderer lud Programmcode hoch, der defekte Geräte identifizieren sollte. Außerdem versuchte ein dritter Mitarbeiter, Meeting-Protokolle automatisch zu erstellen, indem er Meeting-Aufzeichnungen hochlud.
Samsung hat seine Mitarbeiter, die persönliche Geräte für den Zugriff auf ChatGPT und andere ähnliche Tools verwenden, angewiesen, keine unternehmensbezogenen Informationen oder personenbezogenen Daten weiterzugeben, die möglicherweise das geistige Eigentum des Unternehmens preisgeben könnten. Das Unternehmen betont, dass die Nichteinhaltung der neuen Richtlinie zur Kündigung führen kann.
„Wir bitten Sie, sich gewissenhaft an unsere Sicherheitsrichtlinie zu halten, und die Nichtbeachtung kann zu einer Verletzung oder Kompromittierung von Unternehmensinformationen führen, was zu Disziplinarmaßnahmen bis hin zur Kündigung des Arbeitsverhältnisses führen kann“, schreibt das Unternehmen in dem Memo.
Samsung soll eigene KI-Tools für die Softwareentwicklung sowie für die Übersetzung und Zusammenfassung von Dokumenten entwickeln.
Das südkoreanische Unternehmen hat die Mitarbeiter einer seiner umfangreichsten Abteilungen durch ein von Bloomberg geprüftes Memo darüber informiert, dass eine neue Richtlinie eingeführt wurde. Das Unternehmen ist besorgt über die Daten, die an Plattformen für künstliche Intelligenz wie Google Bard und Bing übermittelt werden, da sie auf externen Servern gespeichert sind, was es schwierig macht, sie abzurufen und zu löschen. Diese Daten könnten an andere Benutzer weitergegeben werden, was Samsung beunruhigt
Das Unternehmen führte letzten Monat eine Umfrage durch, um den Einsatz von KI-Tools innerhalb der Organisation zu messen. Die Umfrageergebnisse zeigen, dass 65 Prozent der Befragten angaben, dass die Nutzung solcher Dienste ein Sicherheitsrisiko birgt.
„Das Interesse an generativen KI-Plattformen wie ChatGPT ist intern und extern gewachsen“, sagte Samsung den Mitarbeitern. „Während sich dieses Interesse auf die Nützlichkeit und Effizienz dieser Plattformen konzentriert, gibt es auch wachsende Bedenken hinsichtlich der Sicherheitsrisiken, die von der generativen KI ausgehen.“
Laut dem Memo ist die Implementierung der neuen Richtlinie auf das versehentliche Lecken von internem Quellcode durch Samsung-Ingenieure zurückzuführen, die ihn auf ChatGPT hochgeladen haben.
„Das Hauptquartier überprüft Sicherheitsmaßnahmen, um eine sichere Umgebung für die sichere Nutzung generativer KI zu schaffen, um die Produktivität und Effizienz der Mitarbeiter zu steigern“, heißt es in dem Memo. „Bis diese Maßnahmen vorbereitet sind, schränken wir jedoch den Einsatz von generativer KI vorübergehend ein.“
Laut einem Bericht koreanischer Medien haben Samsung-Mitarbeiter Unternehmensgeheimnisse auf ChatGPT hochgeladen.
Ein Mitarbeiter kopierte sogar den Quellcode eines Downloadprogramms für Halbleiterdatenbanken, ein anderer lud Programmcode hoch, der defekte Geräte identifizieren sollte. Außerdem versuchte ein dritter Mitarbeiter, Meeting-Protokolle automatisch zu erstellen, indem er Meeting-Aufzeichnungen hochlud.
Samsung hat seine Mitarbeiter, die persönliche Geräte für den Zugriff auf ChatGPT und andere ähnliche Tools verwenden, angewiesen, keine unternehmensbezogenen Informationen oder personenbezogenen Daten weiterzugeben, die möglicherweise das geistige Eigentum des Unternehmens preisgeben könnten. Das Unternehmen betont, dass die Nichteinhaltung der neuen Richtlinie zur Kündigung führen kann.
„Wir bitten Sie, sich gewissenhaft an unsere Sicherheitsrichtlinie zu halten, und die Nichtbeachtung kann zu einer Verletzung oder Kompromittierung von Unternehmensinformationen führen, was zu Disziplinarmaßnahmen bis hin zur Kündigung des Arbeitsverhältnisses führen kann“, schreibt das Unternehmen in dem Memo.
Samsung soll eigene KI-Tools für die Softwareentwicklung sowie für die Übersetzung und Zusammenfassung von Dokumenten entwickeln.