X, ehemals Twitter, versucht, den Gesetzgeber vor einem Big Tech über die Sicherheitsmaßnahmen der App zu beruhigen Anhörung vor dem Kongress am Mittwoch, der sich darauf konzentrieren wird, wie Unternehmen wie X, Meta, TikTok und andere Kinder online schützen. Am Wochenende gab das Social-Media-Unternehmen via bekannt Bloomberg dass es ein neues „Trust and Safety“-Zentrum in Austin, Texas, besetzen würde, das 100 Vollzeit-Inhaltsmoderatoren umfassen wird. Der Schritt erfolgt mehr als ein Jahr nach der Übernahme des Unternehmens durch Elon Musk, bei der er die Zahl der Mitarbeiter, darunter Vertrauens- und Sicherheitsteams, Moderatoren, Ingenieure und anderes Personal, drastisch reduzierte.
Außerdem, Axios berichtete zuvor dass sich X-CEO Linda Yaccarino letzte Woche im Vorfeld der bevorstehenden Anhörung mit überparteilichen Mitgliedern des Senats, darunter Senatorin Marsha Blackburn, getroffen hatte. Die Exekutive soll mit den Gesetzgebern darüber gesprochen haben, wie X auf seiner Plattform gegen die sexuelle Ausbeutung von Kindern vorgeht.
Als Twitter hatte das Unternehmen eine schwierige Geschichte mit der richtigen Moderation für CSE – etwas, das Gegenstand von war eine Kindersicherheitsklage im Jahr 2021. Obwohl Musk das Problem neben vielen anderen Problemen vom früheren Twitter-Management geerbt hat, Es gab Bedenken dass sich das CSE-Problem unter seiner Führung verschärft hat – insbesondere angesichts der Entlassungen der Mitglieder des Vertrauens- und Sicherheitsteams.
Nachdem er die Leitung von Twitter übernommen hatte, hatte Musk dies getan versprochen dass die Lösung des Problems der CSE-Inhalte für ihn oberste Priorität hatte, aber ein Bericht von Business Insider aus dem Jahr 2022 gab an, dass es immer noch Beiträge gab, in denen Leute den Inhalt anforderten. Das Unternehmen fügte in diesem Jahr auch eine neue Funktion zur Meldung von CSE-Material hinzu. Im Jahr 2023 jedoch Musk begrüßte die Rückkehr eines Kontos das war gewesen verboten für die vorherige Veröffentlichung von CSE-Bildern, was zu Fragen hinsichtlich der Durchsetzung seiner Richtlinien durch X führte. Letztes Jahr, eine Untersuchung der New York Times stellte fest, dass sich CSE-Bilder auch nach der Benachrichtigung des Unternehmens weiterhin auf der Plattform von Dieser Bericht stand in krassem Gegensatz zu X’s eigene Aussagen, die behaupteten Das Unternehmen ging das Problem aggressiv an, indem es immer mehr Konten sperrte und die Suche änderte.
Bloombergs Bericht über den Plan von Es wurde jedoch darauf hingewiesen, dass die Moderatoren beim Unternehmen Vollzeit angestellt sein würden.
„X hat keinen Geschäftsbereich, der sich auf Kinder konzentriert, aber es ist wichtig, dass wir diese Investitionen tätigen, um Straftäter weiterhin davon abzuhalten, unsere Plattform für die Verbreitung oder Auseinandersetzung mit CSE-Inhalten zu nutzen“, sagte ein leitender Angestellter von X, Joe Benarroch, der Verkaufsstelle .
X auch hat am Freitag einen Blogbeitrag veröffentlicht detailliert seine Fortschritte bei der Bekämpfung von CSE und stellte fest, dass im Jahr 2023 12,4 Millionen Konten wegen CSE gesperrt wurden, gegenüber 2,3 Millionen im Jahr 2022. Darüber hinaus wurden im vergangenen Jahr 850.000 Berichte an das National Center for Missing and Exploited Children (NCMEC) gesendet, mehr als achtmal Die im Jahr 2022 gesendete Menge. Während diese Kennzahlen eine verstärkte Reaktion auf das Problem zeigen sollen, könnten sie darauf hindeuten, dass diejenigen, die CSE-Inhalte teilen möchten, zunehmend X dafür verwenden.