Chatgpt: Wie der ChatGPT-Bug mehr als nur den Chat-Verlauf der Benutzer offengelegt hat, einschließlich Kreditkartendaten

Chatgpt Wie der ChatGPT Bug mehr als nur den Chat Verlauf der
Die Information, dass die ChatGPT Fehler, der während eines Ausfalls Anfang dieser Woche aufgedeckt wurde, war mehr als nur der Chat-Verlauf. Am 20. März von Microsoft unterstützt OpenAI ChatGPT zuvor vorübergehend deaktiviert, um einen Fehler zu beheben, der es einigen Benutzern ermöglichte, die Titel des Chatverlaufs anderer Benutzer auf dem beliebten KI-Chatbot zu sehen. Jetzt hat das Unternehmen in einem Update gesagt, dass der Fehler möglicherweise mehr aufgedeckt wurde, dazu gehören einige persönliche Daten von ChatGPT Plus-Abonnenten, einschließlich ihrer Zahlungsinformationen.
Die Zahlungsinformationen, die durchgesickert sind
„Bei eingehender Untersuchung haben wir auch festgestellt, dass derselbe Fehler möglicherweise die unbeabsichtigte Sichtbarkeit von zahlungsbezogenen Informationen von 1,2 % der ChatGPT Plus-Abonnenten verursacht hat, die während eines bestimmten neunstündigen Fensters aktiv waren. In den Stunden, bevor wir ChatGPT offline genommen haben Am Montag war es einigen Benutzern möglich, den Vor- und Nachnamen, die E-Mail-Adresse, die Zahlungsadresse, die (nur) letzten vier Ziffern einer Kreditkartennummer und das Ablaufdatum der Kreditkarte eines anderen aktiven Benutzers zu sehen, nicht jedoch die vollständigen Kreditkartennummern jederzeit ausgesetzt“, sagte OpenAI in dem Update.
Es fügte ferner hinzu, dass es sich gemeldet habe, um betroffene Benutzer darüber zu informieren, dass ihre Zahlungsinformationen möglicherweise offengelegt wurden. Es wurde auch behauptet, dass kein dauerhaftes Risiko für die Daten der Benutzer bestehe.
Was hat den Fehler verursacht
In einem Tweet vom 22. März, CEO von OpenAI Sam Altmann sagte, ein bedeutendes Problem in ChatGPT sei das Ergebnis eines „Fehlers in einer Open-Source-Bibliothek“. Darin hieß es, dass der „Fehler in der entdeckt wurde Redis Client-Open-Source-Bibliothek“, die OpenAI verwendet, um Benutzerinformationen auf seinem Server zwischenzuspeichern.
Das Unternehmen gab jedoch nicht die genaue Anzahl der Personen bekannt, die von den großen Auswirkungen betroffen waren. Dieser technische Fehler bedeutet sicherlich, dass Benutzer mit KI-Tools, einschließlich Chatbots, vorsichtig sein müssen. Die meisten KI-Tools befinden sich noch in der Beta-Phase, auch mit dem plötzlichen starken Anstieg der Anzahl von KI-Tools auf dem Markt ist nicht wirklich klar/sicher, wie viele von ihnen ordnungsgemäß getestet wurden und die fälligen Sicherheitsprüfungen durchlaufen haben .

toi-tech