Details wurden von ChatGPT durchgesickert
Laut einem Bericht von ArsTechnica hat ein Benutzer Screenshots geteilt, die zeigen, wie ChatGPT private Gespräche preisgibt. Die Bilder zeigen, dass der Chatbot Details wie Benutzernamen und Passwörter preisgibt. Der Bericht stellt fest, dass der Benutzer auf ChatGPT für eine nicht verwandte Anfrage zugegriffen hat und seltsamerweise zusätzliche Konversationen im Chat-Verlauf des Bots entdeckt hat, die ihm nicht gehörten. Diese unabhängigen Gespräche enthielten mehrere Details, heißt es in dem Bericht.
Eine Reihe von Gesprächen wurde von einem Benutzer geführt, der versuchte, Probleme über ein Supportsystem zu beheben, das von Mitarbeitern eines Apothekenportals für verschreibungspflichtige Medikamente verwendet wurde. Diese Konversation enthielt den Namen der App, die der andere Benutzer zu beheben versuchte, die Store-Nummer, in der das Problem auftrat, und zusätzliche Anmeldeinformationen. Eine weitere durchgesickerte Konversation enthielt den Namen der Präsentation, an der ein anderer Benutzer arbeitete. Es enthielt auch Einzelheiten zu einem unveröffentlichten Forschungsvorschlag.
Was OpenAI zu den durchgesickerten Details zu sagen hat
Als Antwort auf die Vorwürfe erklärten OpenAI-Beamte, dass ChatGPT nicht verwandte Chatverläufe anzeigte, da das Konto des Benutzers kompromittiert wurde. Ein Vertreter von Open AI sagte, dass die nicht autorisierten Anmeldungen aus Sri Lanka stammten, während der Benutzer sagte, er logge sich aus Brooklyn, New York, in sein Konto ein.
In einer Erklärung schrieb der OpenAI-Vertreter: „Nach dem, was wir herausgefunden haben, halten wir es für eine Kontoübernahme, da es mit der Aktivität übereinstimmt, bei der jemand zu einem ‚Pool‘ von Identitäten beiträgt, den eine externe Community oder ein Proxyserver verwendet, um freien Zugriff zu verteilen. Die Untersuchung ergab, dass kürzlich Gespräche aus Sri Lanka geführt wurden. Diese Gespräche finden im gleichen Zeitraum statt wie erfolgreiche Anmeldungen aus Sri Lanka.“
Dies ist nicht das erste Mal, dass ChatGPT Informationen preisgibt. Berichten zufolge hatte der Chatbot im März 2023 einen Fehler, der Chat-Titel durchsickern ließ. Unterdessen konnten Forscher im November 2023 mithilfe von Abfragen den KI-Bot dazu veranlassen, private Daten preiszugeben, die beim Training des LLM verwendet wurden.
Darüber hinaus ist es wichtig zu beachten, dass OpenAI seinen Benutzern keine Funktionen wie 2FA oder die Möglichkeit bietet, Details wie den IP-Standort aktueller und kürzlich erfolgter Anmeldungen zu verfolgen, um ihre ChatGPT-Konten zu schützen.