Samsung: Samsung schränkt möglicherweise die Nutzung von ChatGPT für Mitarbeiter ein, hier ist der Grund

Samsung Samsung schraenkt moeglicherweise die Nutzung von ChatGPT fuer Mitarbeiter
Es gab einige Anwendungsfälle von ChatGPT wo den Benutzern geraten wurde, mit Vorsicht vorzugehen. Es ist unbestreitbar, dass ChatGPT ein nützliches Tool ist, um eine Menge Dinge am Arbeitsplatz zu erledigen. Es scheint jedoch drei zu sein Samsung-Mitarbeiter am Ende vertrauliche Informationen an den Chatbot weitergegeben.
Laut The Economist Korea, Samsung Mitarbeiter teilten „aus Versehen“ einige Geschäftsgeheimnisse mit dem Chatbot. Der Bericht besagt, dass die Ingenieure der Halbleitersparte von Samsung den Chatbot verwenden durften, um nach Quellcode zu suchen.
Was haben die Mitarbeiter gemacht?
Dem Bericht zufolge bat ein Mitarbeiter ChatGPT, nach Fehlern in einem vertraulichen Quellcode zu suchen. Ein zweiter Mitarbeiter forderte eine Code-Optimierung mit ChatGPT und geteiltem Code an. Der Bericht stellt fest, dass ein dritter Mitarbeiter eine Aufzeichnung eines Firmentreffens geteilt hat, da er wollte, dass ChatGPT Notizen für eine Präsentation macht. Alle Informationen befinden sich jetzt auf ChatGPT und gelten als vertraulich. Das ChatGPT-Modell ist so, dass es alle Informationen behält und sich dann selbst trainiert, um intelligenter zu werden.
Wie war die Reaktion von Samsung?
Dem Bericht zufolge schränkt Samsung die Nutzung von ChatGPT für Mitarbeiter ein. Während ein pauschales Verbot durchgesetzt wurde, beschränkt das Unternehmen die Länge der Eingabeaufforderungen – oder Fragen –, die Mitarbeiter auf bis zu 1024 Bytes pro Person stellen können. Außerdem führt das Unternehmen eine Untersuchung der Mitarbeiter durch, die an dem Leck beteiligt waren.
In Bezug auf ChatGPT, OpenAI hat sehr deutlich gemacht, dass Benutzer keine vertraulichen Informationen mit dem Chatbot teilen sollten. OpenAI sagt, dass es nicht in der Lage ist, bestimmte Eingabeaufforderungen aus Ihrem Verlauf zu löschen. „Bitte geben Sie keine sensiblen Informationen in Ihren Gesprächen weiter“, erklärt das Unternehmen kategorisch. Dies liegt daran, dass OpenAI sagt, dass die Gespräche der Benutzer von seinen KI-Trainern überprüft werden können, um seine Systeme zu verbessern.

toi-tech