Im Vorfeld einer großen Kongressanhörung zum Thema Online-Sicherheit von Kindern hat Meta eine Zusammenarbeit mit dem Center for Open Science angekündigt, einer gemeinnützigen Organisation, die sich für Transparenz in der akademischen Forschung einsetzt. Im Rahmen dieses Pilotprogramms hat Meta sagt Es wird „die Privatsphäre schützende Social-Media-Daten“ mit ausgewählten akademischen Forschern teilen, die sich mit Wohlbefinden befassen.
„Bei Meta möchten wir unseren Teil dazu beitragen, zum Verständnis der wissenschaftlichen Gemeinschaft beizutragen, wie sich verschiedene Faktoren auf das Wohlbefinden der Menschen auswirken können oder nicht. Wir sind bestrebt, dies auf eine Weise zu tun, die die Privatsphäre der Menschen respektiert, die unsere App nutzen“, sagte Curtiss Cobb, Vizepräsident für Forschung bei Meta, in einer Pressemitteilung.
Akademiker drängen seit Jahren darauf, Plattformen dazu zu bringen, mehr Daten für ihre Forschung mit ihnen zu teilen, aber da die Auswirkungen sozialer Medien auf die psychische Gesundheit im Kongress zu einem immer dringlicheren Anliegen werden, haben diese Bemühungen beschleunigt. Im November erweiterte Meta den Zugang von Forschern zu Daten durch ein Transparenzprodukt namens Meta-Inhaltsbibliothekwodurch bereits verfügbare Daten wie öffentliche Beiträge, Kommentare und Reaktionen einfacher in großem Maßstab analysiert werden konnten.
Am Mittwoch wird Meta-Gründer und CEO Mark Zuckerberg vor dem Kongress zusammen mit CEOs von Discord, Snap, TikTok und X im Rahmen einer Anhörung zur Online-Sicherheit von Kindern aussagen. Meta hat den Akademikern nicht nur vor der Anhörung einen Strich durch die Rechnung gemacht, sondern kündigte letzte Woche auch die Einführung neuer Nachrichtenbeschränkungen auf Facebook und Instagram an, mit denen Benutzer unter 16 Jahren vom Empfang von Nachrichten von Erwachsenen ausgeschlossen werden, denen sie nicht folgen. Erziehungsberechtigte können außerdem Änderungen an den Standard-Datenschutzeinstellungen durch Jugendliche genehmigen oder ablehnen. Meta hat außerdem einige Maßnahmen ergriffen, um den Zugang von Teenagern zu Inhalten über Selbstverletzung, Selbstmord und Essstörungen einzuschränken.
Aber diese Änderungen erfolgen vor dem Hintergrund zunehmender Kontrolle. Anfang dieses Monats zeigten nicht redigierte Dokumente im Rahmen eines laufenden Rechtsstreits Metas „historische Zurückhaltung“, Kinder auf seinen Plattformen zu schützen.
Auch andere soziale Plattformen haben im Vorfeld der Anhörung am Mittwoch neue Sicherheitsinitiativen ergriffen. X kündigte an, 100 Moderatoren in Austin, Texas, für ein „Vertrauens- und Sicherheitszentrum“ einzustellen; pro AxiosCEO Linda Yaccarino hat sich außerdem mit parteiübergreifenden Kongressabgeordneten getroffen, um zu besprechen, wie X mit der sexuellen Ausbeutung von Kindern auf der Plattform umgeht. Unterdessen stand X letzte Woche vor einem hochkarätigen Problem mit der Moderation von Inhalten, als nicht einvernehmliche, pornografische Deepfake-Bilder von Taylor Swift viral gingen. Die öffentliche Besorgnis über die missbräuchlichen Bilder erreichte sogar das Weiße Haus, wo Pressesprecherin Karine Jean-Pierre anwesend war rief den Kongress auf gesetzgeberische Maßnahmen zu ergreifen.