Bluesky hat am Freitag seine veröffentlicht Moderationsbericht für das vergangene Jahr, unter Hinweis auf das beträchtliche Wachstum, das das soziale Netzwerk im Jahr 2024 erlebte, und darauf, wie sich dies auf die Arbeitsbelastung seines Trust & Safety-Teams auswirkte. Es wurde außerdem darauf hingewiesen, dass die meisten Meldungen von Benutzern stammten, die Konten oder Beiträge wegen Belästigung, Trolling oder Intoleranz meldeten – ein Problem, das Bluesky im Laufe seines Wachstums plagte und zeitweise sogar zu weitreichenden Protesten gegen einzelne Moderationsentscheidungen geführt hat.
In dem Bericht des Unternehmens wurde weder darauf eingegangen noch erklärt, warum das Unternehmen Maßnahmen gegen einzelne Benutzer ergriffen oder nicht ergriffen hat, darunter auch gegen solche die am häufigsten blockierte Liste.
Das Unternehmen verzeichnete im Jahr 2024 über 23 Millionen Nutzer, da Bluesky aus verschiedenen Gründen zu einem neuen Ziel für ehemalige Twitter/X-Nutzer wurde. Im Laufe des Jahres profitierte das soziale Netzwerk von mehreren Änderungen bei X, einschließlich der Entscheidung, die Funktionsweise des Blockierens zu ändern und die KI auf Benutzerdaten zu trainieren. Andere Benutzer verließen X nach den Ergebnissen der US-Präsidentschaftswahlen, basierend auf der Art und Weise, wie die Politik des X-Inhabers Elon Musk begann, die Plattform zu dominieren. Auch die Nutzerzahlen der App stiegen stark an, während X bereits im September in Brasilien vorübergehend verboten wurde.
Um den durch dieses Wachstum verursachten Anforderungen gerecht zu werden, habe Bluesky sein Moderatorenteam auf rund 100 Moderatoren erweitert und stellt weiterhin neue Mitarbeiter ein. Das Unternehmen begann außerdem, seinen Teammitgliedern psychologische Beratung anzubieten, um ihnen bei der schwierigen Aufgabe zu helfen, ständig grafischen Inhalten ausgesetzt zu sein. (Ein Bereich, von dem wir hoffen, dass er sich eines Tages mit der KI befassen wird, da Menschen nicht dafür geschaffen sind, diese Art von Arbeit zu bewältigen.)
Insgesamt gab es 6,48 Millionen Meldungen an den Moderationsdienst von Bluesky, ein 17-facher Anstieg gegenüber 2023, als es nur 358.000 Meldungen gab.
Ab diesem Jahr wird Bluesky damit beginnen, Moderationsberichte direkt aus seiner App zu akzeptieren. Ähnlich wie bei X können Benutzer dadurch Aktionen und Aktualisierungen einfacher verfolgen. Später wird es auch Einsprüche in der App unterstützen.
Als im August brasilianische Nutzer zu Bluesky strömten, verzeichnete das Unternehmen in der Spitze bis zu 50.000 Meldungen pro Tag. Dies führte zu einem Rückstand bei der Bearbeitung von Moderationsberichten und zwang Bluesky dazu, mehr portugiesischsprachiges Personal einzustellen, unter anderem über einen Vertragsanbieter.
Darüber hinaus begann Bluesky damit, weitere Kategorien von Meldungen über den reinen Spam hinaus zu automatisieren, um den Zustrom zu bewältigen, obwohl dies manchmal zu Fehlalarmen führte. Dennoch hat die Automatisierung dazu beigetragen, die Bearbeitungszeit für „hochsichere“ Konten auf nur „Sekunden“ zu reduzieren. Vor der Automatisierung wurden die meisten Berichte innerhalb von 40 Minuten bearbeitet. Jetzt werden menschliche Moderatoren auf dem Laufenden gehalten, um auf Fehlalarme und Einsprüche einzugehen, wenn auch nicht immer die ursprüngliche Entscheidung zu treffen.
Bluesky gibt an, dass 4,57 % seiner aktiven Nutzer (1,19 Millionen) im Jahr 2024 mindestens einen Moderationsbericht erstellt haben, gegenüber 5,6 % im Jahr 2023. Die meisten davon – 3,5 Millionen Berichte – betrafen einzelne Beiträge. Kontoprofile wurden 47.000 Mal gemeldet, häufig wegen eines Profilbilds oder Bannerfotos. Listen wurden 45.000 Mal gemeldet; DMs wurden 17.700 Mal gemeldet, wobei Feeds und Starter Packs 5.300 bzw. 1.900 Meldungen erhielten.
In den meisten Berichten ging es um asoziales Verhalten wie Trolling und Belästigung – ein Signal von Bluesky-Nutzern, dass sie sich im Vergleich zu X ein weniger toxisches soziales Netzwerk wünschen.
Andere Berichte betrafen die folgenden Kategorien, sagte Bluesky:
- Irreführende Inhalte (Nachahmung der Identität, Fehlinformationen oder falsche Behauptungen über Identität oder Zugehörigkeit): 1,20 Millionen
- Spam (übermäßige Erwähnungen, Antworten oder sich wiederholende Inhalte): 1,40 Millionen
- Unerwünschte sexuelle Inhalte (Nacktheit oder nicht ordnungsgemäß gekennzeichnete Inhalte für Erwachsene): 630.000
- Illegale oder dringende Probleme (eindeutige Verstöße gegen das Gesetz oder die Nutzungsbedingungen von Bluesky): 933.000
- Sonstiges (Probleme, die nicht in die oben genannten Kategorien passen): 726.000
Das Unternehmen bot außerdem ein Update seines Kennzeichnungsdienstes an, bei dem Beiträge und Konten mit Kennzeichnungen versehen werden. Menschliche Labeler fügten 55.422 Labels für „sexuelle Figuren“ hinzu, gefolgt von 22.412 Labels für „unhöflich“, 13.201 Labels für „Spam“, 11.341 Labels für „intolerant“ und 3.046 Labels für „bedrohlich“.
Im Jahr 2024 reichten 93.076 Nutzer insgesamt 205.000 Einsprüche gegen die Moderationsentscheidung von Bluesky ein.
Außerdem gab es 66.308 Kontodeaktivierungen durch Moderatoren und 35.842 automatische Kontodeaktivierungen. Darüber hinaus bearbeitete Bluesky 238 Anfragen von Strafverfolgungsbehörden, Regierungen und Anwaltskanzleien. Das Unternehmen antwortete auf 182 dieser Anfragen und kam 146 nach. Bei den meisten Anfragen handelte es sich um Strafverfolgungsanfragen aus Deutschland, den USA, Brasilien und Japan, hieß es.
Der vollständige Bericht von Bluesky geht auch auf andere Arten von Themen ein, darunter Marken- und Urheberrechtsansprüche sowie Kindersicherheits-/CSAM-Berichte. Das Unternehmen gab an, 1.154 bestätigte CSAM-Meldungen an das National Center for Missing and Exploited Children (NCMEC) übermittelt zu haben.