Trotz ihres sensiblen Inhalts haben Therapie-Apps einige der schlechtesten Datenschutzmaßnahmen, wie eine Untersuchung ergab
Trotz ihrer warmen, unscharfen Verpackung und scheinbar altruistischen Absichten sind Apps für psychische Gesundheit und Gebet „schlimmer als jedes andere Produkt“, wenn es um die Privatsphäre und Sicherheit der Benutzer geht, wie eine Analyse der Browserfirma Mozilla am Montag enthüllte. „Die überwiegende Mehrheit der Apps für psychische Gesundheit und Gebete sind außergewöhnlich gruselig“, sagte Jen Caltrider von Mozilla, die Hauptschöpferin von „Privacy not Included“ von Mozilla.
Führung, die 32 solcher Apps auf ihren Respekt vor den personenbezogenen Daten der Nutzer bewertete, sagte am Montag gegenüber Verge. Caltrider bemerkte, dass die Apps, von denen man denken könnte, dass sie die sensible Natur ihrer Daten erkennen würden, anstatt „die intimsten persönlichen Gedanken und Gefühle der Benutzer zu verfolgen, zu teilen und zu nutzen, wie Stimmungen, mentaler Zustand und biometrische Daten“. Apps, die biometrische Daten und andere scheinbar private Informationen schlürfen, sind nichts Neues, aber angesichts der Annahme der Privatsphäre, die mit der realen Beziehung zwischen einem Therapeuten und einem Patienten oder einem Gläubigen und einer religiösen Institution einhergeht, könnte man hoffen, dass App-Entwickler dies zumindest tun würden Versuchen Sie, solche sicheren Bereiche zu replizieren, wenn Sie den gesamten Prozess online durchführen. Der Leitfaden „Datenschutz nicht eingeschlossen“ stellte jedoch fest, dass von 32 solcher Apps 29 ein Datenschutz-Warnetikett erhielten, in dem darauf hingewiesen wurde, dass sie entweder große Mengen personenbezogener Daten unter vagen Datenschutzrichtlinien gespeichert haben oder auf andere Weise schlechte Sicherheitspraktiken beibehalten, wie z. B. schwache Passwörter. Eine beliebte App, Talkspace, speichert ganze Chat-Transkripte zwischen Benutzer und Therapeut. Ein anderer, ein KI-Therapie-Chatbot namens Woebot, sammelt tatsächlich Informationen über Benutzer von Dritten und teilt sie dann zu Werbezwecken, während er vorgibt, ihre Silikonschulter zu sein, auf der sie sich ausweinen können.
LESEN SIE MEHR: Untersuchung der Auswirkungen von TikTok auf Kinder gestartet
Der Mozilla-Forscher Misha Rykov bezeichnete die von seinem Team analysierten Apps als „datensaugende Maschinen mit App-Furnier für psychische Gesundheit“ oder „einen Wolf im Schafspelz“. Aber da die Therapie im wirklichen Leben immer teurer wird und der Prozess, einen Therapeuten zu finden, der zu einem Patienten „passt“, ist es für manche schwierig, der Verlockung einer freundlichen Stimme zu widerstehen, die nur einen Klick entfernt ist. Aber angesichts des offensichtlichen Kernzwecks der Apps, Data Mining zu betreiben und die dunkelsten Geheimnisse der Benutzer zu verkaufen, könnte es besser sein, den Mund zu halten, bis man einen qualifizierten Therapeuten oder zumindest einen vertrauenswürdigen Freund trifft – idealerweise im wirklichen Leben.