Zwei „wichtige Gründe“, Ihr Kind von TikTok fernzuhalten

WhatsApp Voice Calls WhatsApp testet neues Design fuer Sprachanrufe so

Tick ​​Tack kann für Jugendliche gefährlich werden, so verrät ein neuer Bericht von Zentrum zur Bekämpfung von digitalem Hass (CCDH). Der Bericht mit dem Titel „Deadly by Design“ behauptet, dass TikTok gefährdete Teenager mit gefährlichen Inhalten bombardiert, die über seinen „For You“-Feed Selbstverletzung, Selbstmord, Essstörungen und Essstörungen fördern könnten.
CCDH-Forscher untersuchten den TikTok-Algorithmus, indem sie zwei neue Konten in den USA, Großbritannien, Australien und Kanada einrichteten, die sich als 13-Jährige ausgaben. Ein Konto in jedem Land erhielt einen traditionell weiblichen Namen. Der zweite Account hatte ebenfalls einen traditionell weiblichen Namen, enthielt aber auch die Zeichenkette – „loseweight“. Die Forschung hat behauptet, dass Benutzer mit Problemen mit Körperdysmorphien dies oft durch ihren Benutzernamen ausdrücken. „Wir differenzieren das Konto mit ‚loseweight‘ in unserer Analyse als ‚anfälliges‘ Konto“, heißt es in dem Bericht.
CCDH-Forscher zeichneten dann die ersten 30 Minuten von Inhalten auf, die diesen Konten automatisch von TikTok in ihrem „For You“-Feed empfohlen wurden, einem Abschnitt von TikTok, der den Benutzern Inhalte algorithmisch empfiehlt. Der Algorithmus verfeinert die Auswahl der Videos basierend auf den Informationen, die er über die Vorlieben und Interessen des Benutzers sammelt. Die Art und Weise, wie dies funktioniert, ist der Schlüssel zum Erfolg der Plattform und soll der Schlüssel zum Erfolg von TikTok sein. Der Algorithmus ist proprietär von TikTok.
Erschreckend gefährliche Zahlen
CCDH behauptet, dass es herausgefunden hat, dass TikTok Gastgeber einer Essstörungs-Community ist, die verschlüsselte und offene Hashtags verwendet, um Inhalte auf TikTok mit über 13,2 Milliarden Aufrufen ihrer Videos zu teilen. „Im „For You“-Feed stieß unser Forschungsteam auf zahlreiche Videos, die potenziell gefährliche Inhalte über psychische Gesundheit, Essstörungen oder Selbstverletzung bewarben. Jedes Mal, wenn Videos zu diesen Themen, Körperbildern oder psychischer Gesundheit auftauchten, hielten die Forscher inne und mögen, indem sie das Verhalten eines jungen Erwachsenen simulieren, der für solche Inhalte anfällig sein könnte“, heißt es in dem Bericht.
Der Bericht zeigt einige beunruhigende Zahlen. Es heißt, dass seinen Konten in der Studie im Durchschnitt alle 39 Sekunden Videos über psychische Gesundheit und Körperbild zugestellt wurden. Inhalte, die auf Selbstmord verwiesen, wurden innerhalb von 2,6 Minuten einem Konto zugestellt. Inhalte mit Essstörungen wurden innerhalb von 8 Minuten einem Konto bereitgestellt.
Es fügt hinzu, dass die Forscher äußerst beunruhigt waren, als sie feststellten, dass die Menge an schädlichen Inhalten, die gefährdeten Konten (dh mit dem Begriff „loseweight“ in ihrem Benutzernamen) angezeigt wurde, erheblich höher war als die, die Standardkonten angezeigt wurden.
Weiter wird hinzugefügt, dass anfälligen Konten dreimal mehr schädliche Inhalte bereitgestellt wurden als Standardkonten. Ihnen wurden 12-mal mehr Selbstverletzungs- und Selbstmordvideos als Standardkonten angezeigt.

Die Apple Watch Ultra kann mit der neuen Oceanic+ App zum Tauchcomputer werden

toi-tech