ChatGPT lässt Berichten zufolge private Gespräche durchsickern. Laut einem aktuellen Bericht in ArsTechnica umfassen die durchgesickerten Daten Anmeldeinformationen und andere persönliche Daten unabhängiger Benutzer. In dem Bericht wurden Screenshots geteilt, die von dem Benutzer eingereicht wurden, dessen Konto angeblich gehackt wurde. Die sieben geteilten Screenshots enthielten mehrere Paare von Benutzernamen und Passwörtern, die offenbar mit einem Supportsystem in Verbindung standen, das von Mitarbeitern eines Apothekenportals für verschreibungspflichtige Medikamente verwendet wurde. Ein Mitarbeiter, der den KI-Chatbot nutzte, schien Probleme zu beheben, die bei der Nutzung des Portals aufgetreten waren.
Was ist das Leck?
„DAS ist so verdammt wahnsinnig, schrecklich, schrecklich, schrecklich, ich kann nicht glauben, wie schlecht das überhaupt gebaut wurde und welche Hindernisse mir vor Augen geführt werden, die verhindern, dass es besser wird“, schrieb der Benutzer . „Ich würde schießen [redacted name of software] nur für diese Absurdität, wenn es meine Wahl wäre. Das ist falsch.“
Neben der genauen Sprache und den Anmeldeinformationen enthält die durchgesickerte Konversation auch den Namen der App, an der der Mitarbeiter eine Fehlerbehebung durchführt, sowie die Store-Nummer, in der das Problem aufgetreten sein soll. Die Ergebnisse sollen erschienen sein, kurz nachdem der Benutzer namens Whiteside ChatGPT für eine nicht verwandte Anfrage verwendet hatte.
„Ich habe eine Anfrage gestellt (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette) und als ich einen Moment später zum Zugriff zurückkehrte, fielen mir die zusätzlichen Konversationen auf“, schrieb Whiteside in einer E-Mail. „Sie waren nicht da, als ich ChatGPT gestern Abend verwendet habe (ich bin ein ziemlich starker Benutzer). Es wurden keine Anfragen gestellt – sie sind nur in meinem Verlauf aufgetaucht und stammen mit Sicherheit nicht von mir (und ich glaube auch nicht, dass sie vom selben Benutzer stammen).“
Berichten zufolge enthielten weitere Gespräche, die Whiteside zugespielt wurden, den Namen einer Präsentation, an der jemand arbeitete, Details zu einem unveröffentlichten Forschungsvorschlag und ein Skript, das die Programmiersprache PHP nutzte. Dem Bericht zufolge schienen die Benutzer jeder durchgesickerten Konversation unterschiedlich zu sein und keinen Bezug zueinander zu haben. Das Gespräch mit dem Rezeptportal umfasste das Jahr 2020. Excat-Daten tauchten in den anderen Gesprächen nicht auf.
Was OpenAI zu ChatGPT-Lecks gesagt hat
OpenAI kommentierte die angeblichen Lecks und teilte der Veröffentlichung mit, dass die ChatGPT-Historien, die ein Benutzer gemeldet habe, darauf zurückzuführen seien, dass sein ChatGPT-Konto kompromittiert worden sei. Die nicht autorisierten Anmeldungen kamen aus Sri Lanka, sagte ein Vertreter von Open AI. Der Benutzer gab an, dass er sich von Brooklyn, New York aus, in sein Konto einloggt.
„Nach dem, was wir herausgefunden haben, halten wir es für eine Kontoübernahme, da es mit den von uns beobachteten Aktivitäten übereinstimmt, bei denen jemand zu einem ‚Pool‘ von Identitäten beiträgt, den eine externe Community oder ein Proxyserver verwendet, um freien Zugriff zu verteilen“, schrieb der Vertreter. „Die Untersuchung ergab, dass kürzlich Gespräche aus Sri Lanka geführt wurden. Diese Gespräche finden im gleichen Zeitraum statt wie erfolgreiche Anmeldungen aus Sri Lanka.“
Welche Erklärung des ChatGPT-Herstellers
Die Erklärung des ChatGPT-Herstellers OpenAI bedeutet wahrscheinlich, dass der ursprüngliche Verdacht, dass ChatGPT Chatverläufe an unabhängige Benutzer weitergibt, möglicherweise nicht richtig ist. Es zeigt jedoch, dass die Website Benutzern wie Whiteside keinen Mechanismus bietet, um ihre Konten mithilfe von 2FA zu schützen oder Details wie den IP-Standort aktueller und kürzlich erfolgter Anmeldungen zu verfolgen. Solche Schutzmaßnahmen gibt es auf den meisten beliebten sozialen Plattformen seit Jahren.
Was ist das Leck?
„DAS ist so verdammt wahnsinnig, schrecklich, schrecklich, schrecklich, ich kann nicht glauben, wie schlecht das überhaupt gebaut wurde und welche Hindernisse mir vor Augen geführt werden, die verhindern, dass es besser wird“, schrieb der Benutzer . „Ich würde schießen [redacted name of software] nur für diese Absurdität, wenn es meine Wahl wäre. Das ist falsch.“
Neben der genauen Sprache und den Anmeldeinformationen enthält die durchgesickerte Konversation auch den Namen der App, an der der Mitarbeiter eine Fehlerbehebung durchführt, sowie die Store-Nummer, in der das Problem aufgetreten sein soll. Die Ergebnisse sollen erschienen sein, kurz nachdem der Benutzer namens Whiteside ChatGPT für eine nicht verwandte Anfrage verwendet hatte.
„Ich habe eine Anfrage gestellt (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette) und als ich einen Moment später zum Zugriff zurückkehrte, fielen mir die zusätzlichen Konversationen auf“, schrieb Whiteside in einer E-Mail. „Sie waren nicht da, als ich ChatGPT gestern Abend verwendet habe (ich bin ein ziemlich starker Benutzer). Es wurden keine Anfragen gestellt – sie sind nur in meinem Verlauf aufgetaucht und stammen mit Sicherheit nicht von mir (und ich glaube auch nicht, dass sie vom selben Benutzer stammen).“
Berichten zufolge enthielten weitere Gespräche, die Whiteside zugespielt wurden, den Namen einer Präsentation, an der jemand arbeitete, Details zu einem unveröffentlichten Forschungsvorschlag und ein Skript, das die Programmiersprache PHP nutzte. Dem Bericht zufolge schienen die Benutzer jeder durchgesickerten Konversation unterschiedlich zu sein und keinen Bezug zueinander zu haben. Das Gespräch mit dem Rezeptportal umfasste das Jahr 2020. Excat-Daten tauchten in den anderen Gesprächen nicht auf.
Was OpenAI zu ChatGPT-Lecks gesagt hat
OpenAI kommentierte die angeblichen Lecks und teilte der Veröffentlichung mit, dass die ChatGPT-Historien, die ein Benutzer gemeldet habe, darauf zurückzuführen seien, dass sein ChatGPT-Konto kompromittiert worden sei. Die nicht autorisierten Anmeldungen kamen aus Sri Lanka, sagte ein Vertreter von Open AI. Der Benutzer gab an, dass er sich von Brooklyn, New York aus, in sein Konto einloggt.
„Nach dem, was wir herausgefunden haben, halten wir es für eine Kontoübernahme, da es mit den von uns beobachteten Aktivitäten übereinstimmt, bei denen jemand zu einem ‚Pool‘ von Identitäten beiträgt, den eine externe Community oder ein Proxyserver verwendet, um freien Zugriff zu verteilen“, schrieb der Vertreter. „Die Untersuchung ergab, dass kürzlich Gespräche aus Sri Lanka geführt wurden. Diese Gespräche finden im gleichen Zeitraum statt wie erfolgreiche Anmeldungen aus Sri Lanka.“
Welche Erklärung des ChatGPT-Herstellers
Die Erklärung des ChatGPT-Herstellers OpenAI bedeutet wahrscheinlich, dass der ursprüngliche Verdacht, dass ChatGPT Chatverläufe an unabhängige Benutzer weitergibt, möglicherweise nicht richtig ist. Es zeigt jedoch, dass die Website Benutzern wie Whiteside keinen Mechanismus bietet, um ihre Konten mithilfe von 2FA zu schützen oder Details wie den IP-Standort aktueller und kürzlich erfolgter Anmeldungen zu verfolgen. Solche Schutzmaßnahmen gibt es auf den meisten beliebten sozialen Plattformen seit Jahren.