Die Federal Trade Commission der Vereinigten Staaten (FTC) hat eine Untersuchung eingeleitet OpenAIdas KI-Startup hinter den beliebten generativen KI-Produkten, ChatGPT Und DALL-E. Derzeit wird untersucht, ob die Datenerfassung und Verbreitung falscher Informationen durch ChatGPT seinen Nutzern Schaden zugefügt hat.
Die Regulierungsbehörde hat einen 20-seitigen Brief an OpenAI in San Francisco geschickt. In dem Brief wurde das Interesse der Behörde an einer Untersuchung der Sicherheitspraktiken von OpenAI zum Ausdruck gebracht, wie erstmals von der Washington Post berichtet wurde. In dem Schreiben forderte die FTC OpenAI auf, der Agentur relevante Dokumente und zusätzliche Details zur Verfügung zu stellen.
Die FTC stellte OpenAI zahlreiche Fragen zum KI-Modelltraining des Start-ups und zum Umgang mit personenbezogenen Daten. Die Beamten haben um Dokumentation gebeten, wie das Unternehmen mit den Risiken umgeht, die mit seinen umfangreichen Sprach-KI-Modellen verbunden sind.
Die Kommission sucht nach Informationen zu einem Fehler, der im März dieses Jahres zum Verlust sensibler Daten von ChatGPT-Benutzern, wie z. B. ihrer Zahlungs- und Chat-Historien, führte. OpenAI, der Entwickler der KI, gab an, dass nur eine kleine Anzahl von Benutzern betroffen sei. Die FTC befürchtet jedoch, dass dies auf unzureichende Sicherheitsmaßnahmen zurückzuführen sein könnte.
Darüber hinaus ist die Agentur an Beschwerden im Zusammenhang mit falschen oder böswilligen Aussagen der KI über Einzelpersonen sowie an Informationen darüber interessiert, wie gut Benutzer die Richtigkeit der von ihnen verwendeten Produkte verstehen.
Sam Altman, der CEO von OpenAI, drückte in einem Tweet seine Enttäuschung über die Anfrage der FTC aus, die mit einem Leck begann und nicht zum Aufbau von Vertrauen beitrug. Er betonte jedoch, wie wichtig es sei, sicherzustellen, dass ihre Technologie sicher und verbraucherfreundlich sei, und versicherte, dass sie den gesetzlichen Anforderungen entspreche. Altman erklärte außerdem, dass man mit der FTC zusammenarbeiten werde.
OpenAI wurde bereits im März von der italienischen Datenschutzbehörde unter Druck gesetzt, weil es unrechtmäßig personenbezogene Daten von ChatGPT-Benutzern ohne Altersüberprüfungssystem gesammelt hat, um zu verhindern, dass Minderjährige illegalem Material ausgesetzt werden. Infolgedessen wurde ChatGPT vorübergehend gesperrt. OpenAI nahm jedoch die von der Behörde geforderten notwendigen Änderungen vor und stellte im darauffolgenden Monat den Zugriff auf das System wieder her.
Die Regulierungsbehörde hat einen 20-seitigen Brief an OpenAI in San Francisco geschickt. In dem Brief wurde das Interesse der Behörde an einer Untersuchung der Sicherheitspraktiken von OpenAI zum Ausdruck gebracht, wie erstmals von der Washington Post berichtet wurde. In dem Schreiben forderte die FTC OpenAI auf, der Agentur relevante Dokumente und zusätzliche Details zur Verfügung zu stellen.
Die FTC stellte OpenAI zahlreiche Fragen zum KI-Modelltraining des Start-ups und zum Umgang mit personenbezogenen Daten. Die Beamten haben um Dokumentation gebeten, wie das Unternehmen mit den Risiken umgeht, die mit seinen umfangreichen Sprach-KI-Modellen verbunden sind.
Die Kommission sucht nach Informationen zu einem Fehler, der im März dieses Jahres zum Verlust sensibler Daten von ChatGPT-Benutzern, wie z. B. ihrer Zahlungs- und Chat-Historien, führte. OpenAI, der Entwickler der KI, gab an, dass nur eine kleine Anzahl von Benutzern betroffen sei. Die FTC befürchtet jedoch, dass dies auf unzureichende Sicherheitsmaßnahmen zurückzuführen sein könnte.
Darüber hinaus ist die Agentur an Beschwerden im Zusammenhang mit falschen oder böswilligen Aussagen der KI über Einzelpersonen sowie an Informationen darüber interessiert, wie gut Benutzer die Richtigkeit der von ihnen verwendeten Produkte verstehen.
Sam Altman, der CEO von OpenAI, drückte in einem Tweet seine Enttäuschung über die Anfrage der FTC aus, die mit einem Leck begann und nicht zum Aufbau von Vertrauen beitrug. Er betonte jedoch, wie wichtig es sei, sicherzustellen, dass ihre Technologie sicher und verbraucherfreundlich sei, und versicherte, dass sie den gesetzlichen Anforderungen entspreche. Altman erklärte außerdem, dass man mit der FTC zusammenarbeiten werde.
OpenAI wurde bereits im März von der italienischen Datenschutzbehörde unter Druck gesetzt, weil es unrechtmäßig personenbezogene Daten von ChatGPT-Benutzern ohne Altersüberprüfungssystem gesammelt hat, um zu verhindern, dass Minderjährige illegalem Material ausgesetzt werden. Infolgedessen wurde ChatGPT vorübergehend gesperrt. OpenAI nahm jedoch die von der Behörde geforderten notwendigen Änderungen vor und stellte im darauffolgenden Monat den Zugriff auf das System wieder her.