Die perfekte Online-Freundin, die mit dir flirtet, ist vielleicht nicht die, an die du denkst. Jeder fühlt sich einsam und möchte den einen perfekten Begleiter, der Sie versteht. Eines Tages stolperst du über die „KI-Freundin“, und sie hat all die Liebe, die du dir wünschst, aber sie sind vielleicht nicht so gut wie die menschlichen Begleiter, und auch sie werden dir das Herz brechen. Hinter diesen KI-generierten Freundinnen steckt etwas Großes Datenschutzlücken das könnte Millionen von „Freunden“ betreffen.
Forscher der Mozilla Foundation haben diese beliebten „KI-Freundin„Chatbots, die über 100 Millionen Mal heruntergeladen wurden. Sie analysierten 11 romantische Begleiter-Chatbots auf Android, und Überraschung, Überraschung, was haben sie gefunden? Große Datenschutz- und Sicherheitsprobleme (ja, KI-Freundinnen können auch klatschen).
„Diese Apps sind darauf ausgelegt, eine Menge zu sammeln Persönliche Angaben„, sagte Jen Caltrider, die Projektleiterin der Mozilla-Studie. „Sie drängen einen zu Rollenspielen, viel Sex, viel Intimität, viel Teilen.“
Sobald sie Ihre Daten haben, sind diese nicht mehr privat, auch wenn sie behaupten, sie für sich zu behalten. Die Forscher sagen, dass diese Apps systematisch Daten sammeln, schwach sind Sicherheitskontrollen Ermöglicht den Zugriff auf vertrauliche Nachrichten und verfolgt möglicherweise Ihre Aktivitäten. Niemand weiß wirklich, wer sich wirklich auf der anderen Seite des Chat-Bildschirms befindet.
„Diese Apps fördern die Intimität, geben aber keine Klarheit darüber, wie sie sehr persönliche Informationen nutzen und schützen“, fügte Caltrider hinzu. „Verbraucher fallen auf Hochglanz-KI-Profile herein und sind gleichzeitig der Gefahr von Eingriffen in die Privatsphäre ausgesetzt.“
Die Apps bieten wenig Klarheit darüber, welche Benutzerdaten sie teilen und verkaufen. Laut Wired ermöglichen die untersuchten Apps die Erstellung schwacher Ein-Zeichen-Passwörter und enthalten Hunderte versteckter Tracker, die Daten an Unternehmen wie Google und Facebook sowie Firmen in Russland und China senden. „Die rechtlichen Unterlagen waren vage, schwer verständlich, nicht sehr spezifisch – eine Art Standardkram“, sagte Caltrider.
Einige Apps wie Mimico geben weder Eigentümer noch Standort bekannt, sondern listen nur allgemeine Kontakt-E-Mails auf. „Das waren sehr kleine App-Entwickler, die namenlos, gesichtslos und ortslos waren“, sagte Caltrider gegenüber Wired.
Besonders besorgniserregend ist, dass Apps wie CrushOn.AI in ihren Datenschutzrichtlinien offen die Möglichkeit angeben, hochsensible Informationen über die sexuelle Gesundheit, Medikamente, den Geschlechtsumwandlungsstatus und die Pflege der Benutzer zu sammeln. Andere Apps verweisen auf Fantasien über Beziehungen mit Minderjährigen, Missbrauch und gefährliches Verhalten oder dulden diese.
Bei der Vermarktung von Leistungen für die psychische Gesundheit heißt es in den Allgemeinen Geschäftsbedingungen von Romantic AI: „Romantic AI erhebt keine Ansprüche, Zusicherungen, Gewährleistungen oder Garantien, dass der Dienst eine therapeutische, medizinische oder sonstige professionelle Hilfe bereitstellt.“
„Sie sollten für coole neue Technologien nicht mit Ihrer Sicherheit oder Ihrer Privatsphäre bezahlen müssen“, kam der Mozilla-Bericht zu dem Schluss.
Chris Gilliard, Professor am Macomb Community College, der Diskriminierung in KI-Systemen untersucht, sagte gegenüber Wired: „Sie versuchen im Wesentlichen, jegliches Verantwortungsgefühl zu leugnen und gleichzeitig diese hochtrabenden Behauptungen über die Bereitstellung von Intimität und Fürsorge aufzustellen.“
Da diese KI-Chatbots immer beliebter werden, raten Befürworter der Privatsphäre den Menschen, Vorsicht walten zu lassen, bevor sie ihnen vertrauen. Einige Chatbots behaupten vielleicht, personalisierte Liebespartner zu sein, aber es ist wichtig, zuerst ihre Datenrichtlinien, Sicherheitskontrollen und Transparenz rund um KI-Modelle zu überprüfen.
Wenn eine KI bei der Verbindung mit Ihnen etwas zu perfekt zu sein scheint, nutzt sie möglicherweise Ihre Schwachstellen aus, anstatt sich um Ihr Herz zu kümmern. „Sie sollten für coole neue Technologien nicht mit Ihrer Sicherheit oder Ihrer Privatsphäre bezahlen müssen“, kommt der Mozilla-Bericht treffend zu dem Schluss.
Forscher der Mozilla Foundation haben diese beliebten „KI-Freundin„Chatbots, die über 100 Millionen Mal heruntergeladen wurden. Sie analysierten 11 romantische Begleiter-Chatbots auf Android, und Überraschung, Überraschung, was haben sie gefunden? Große Datenschutz- und Sicherheitsprobleme (ja, KI-Freundinnen können auch klatschen).
„Diese Apps sind darauf ausgelegt, eine Menge zu sammeln Persönliche Angaben„, sagte Jen Caltrider, die Projektleiterin der Mozilla-Studie. „Sie drängen einen zu Rollenspielen, viel Sex, viel Intimität, viel Teilen.“
Sobald sie Ihre Daten haben, sind diese nicht mehr privat, auch wenn sie behaupten, sie für sich zu behalten. Die Forscher sagen, dass diese Apps systematisch Daten sammeln, schwach sind Sicherheitskontrollen Ermöglicht den Zugriff auf vertrauliche Nachrichten und verfolgt möglicherweise Ihre Aktivitäten. Niemand weiß wirklich, wer sich wirklich auf der anderen Seite des Chat-Bildschirms befindet.
„Diese Apps fördern die Intimität, geben aber keine Klarheit darüber, wie sie sehr persönliche Informationen nutzen und schützen“, fügte Caltrider hinzu. „Verbraucher fallen auf Hochglanz-KI-Profile herein und sind gleichzeitig der Gefahr von Eingriffen in die Privatsphäre ausgesetzt.“
Die Apps bieten wenig Klarheit darüber, welche Benutzerdaten sie teilen und verkaufen. Laut Wired ermöglichen die untersuchten Apps die Erstellung schwacher Ein-Zeichen-Passwörter und enthalten Hunderte versteckter Tracker, die Daten an Unternehmen wie Google und Facebook sowie Firmen in Russland und China senden. „Die rechtlichen Unterlagen waren vage, schwer verständlich, nicht sehr spezifisch – eine Art Standardkram“, sagte Caltrider.
Einige Apps wie Mimico geben weder Eigentümer noch Standort bekannt, sondern listen nur allgemeine Kontakt-E-Mails auf. „Das waren sehr kleine App-Entwickler, die namenlos, gesichtslos und ortslos waren“, sagte Caltrider gegenüber Wired.
Besonders besorgniserregend ist, dass Apps wie CrushOn.AI in ihren Datenschutzrichtlinien offen die Möglichkeit angeben, hochsensible Informationen über die sexuelle Gesundheit, Medikamente, den Geschlechtsumwandlungsstatus und die Pflege der Benutzer zu sammeln. Andere Apps verweisen auf Fantasien über Beziehungen mit Minderjährigen, Missbrauch und gefährliches Verhalten oder dulden diese.
Bei der Vermarktung von Leistungen für die psychische Gesundheit heißt es in den Allgemeinen Geschäftsbedingungen von Romantic AI: „Romantic AI erhebt keine Ansprüche, Zusicherungen, Gewährleistungen oder Garantien, dass der Dienst eine therapeutische, medizinische oder sonstige professionelle Hilfe bereitstellt.“
„Sie sollten für coole neue Technologien nicht mit Ihrer Sicherheit oder Ihrer Privatsphäre bezahlen müssen“, kam der Mozilla-Bericht zu dem Schluss.
Chris Gilliard, Professor am Macomb Community College, der Diskriminierung in KI-Systemen untersucht, sagte gegenüber Wired: „Sie versuchen im Wesentlichen, jegliches Verantwortungsgefühl zu leugnen und gleichzeitig diese hochtrabenden Behauptungen über die Bereitstellung von Intimität und Fürsorge aufzustellen.“
Da diese KI-Chatbots immer beliebter werden, raten Befürworter der Privatsphäre den Menschen, Vorsicht walten zu lassen, bevor sie ihnen vertrauen. Einige Chatbots behaupten vielleicht, personalisierte Liebespartner zu sein, aber es ist wichtig, zuerst ihre Datenrichtlinien, Sicherheitskontrollen und Transparenz rund um KI-Modelle zu überprüfen.
Wenn eine KI bei der Verbindung mit Ihnen etwas zu perfekt zu sein scheint, nutzt sie möglicherweise Ihre Schwachstellen aus, anstatt sich um Ihr Herz zu kümmern. „Sie sollten für coole neue Technologien nicht mit Ihrer Sicherheit oder Ihrer Privatsphäre bezahlen müssen“, kommt der Mozilla-Bericht treffend zu dem Schluss.