Twitter hat heute den Trust & Safety Council aufgelöst, eine Beratungsgruppe, die aus ungefähr 100 unabhängigen Forschern und Menschenrechtsaktivisten bestand. Die 2016 gegründete Gruppe gab dem sozialen Netzwerk Input zu verschiedenen inhaltlichen und menschenrechtsbezogenen Themen wie der Entfernung von Material zum sexuellen Missbrauch von Kindern (CSAM), Suizidprävention und Online-Sicherheit. Dies könnte Auswirkungen auf die globale Inhaltsmoderation von Twitter haben, da die Gruppe aus Experten auf der ganzen Welt bestand.
Entsprechend mehrere Berichte, erhielten die Ratsmitglieder am Montag eine E-Mail von Twitter, in der stand, dass der Rat „nicht die beste Struktur“ sei, um externe Einblicke in die Produkt- und Richtlinienstrategie des Unternehmens zu erhalten. Während das Unternehmen sagte, es werde Ideen von Ratsmitgliedern „weiterhin begrüßen“, gab es keine Zusicherungen darüber, ob sie berücksichtigt werden. Da der Ideengeber-Beraterkreis aufgelöst wurde, fühlt es sich an, als würde man „Danke, aber nein danke“ sagen.
Ein Bericht von Das Wall Street Journal stellt fest, dass die E-Mail eine Stunde vor dem geplanten Treffen des Rates mit Twitter-Mitarbeitern gesendet wurde, darunter Ella Irwin, die neue Leiterin für Vertrauen und Sicherheit, und Nick Pickles, Senior Public Policy Director.
Diese Entwicklung kommt nach Drei wichtige Mitglieder des Trust & Safety Council sind zurückgetreten letzte Woche. Die Mitglieder sagte in einem Brief dass Elon Musk die Gruppe ignorierte, obwohl er behauptete, sich auf die Benutzersicherheit auf der Plattform zu konzentrieren.
„Die Einrichtung des Councils verdeutlicht das Engagement von Twitter, sich von einem US-zentrierten Ansatz zur Benutzersicherheit, einer stärkeren Zusammenarbeit zwischen den Regionen und der Bedeutung von tief erfahrenen Personen im Sicherheitsteam zu entfernen. Das letzte Engagement ist nicht mehr ersichtlich, gegeben Die jüngste Erklärung von Twitter dass es sich stärker auf die automatisierte Moderation von Inhalten verlassen wird. Algorithmische Systeme können nur so weit gehen, um Benutzer vor sich ständig weiterentwickelndem Missbrauch und Hassreden zu schützen, bevor sich erkennbare Muster entwickelt haben“, hieß es.
Nach der Übernahme von Twitter sagte Musk, dass er einen neuen Rat für die Moderation von Inhalten mit „verschiedenen Ansichten“ bilden werde, aber an dieser Front hat es keine Entwicklung gegeben. Wie meine Kollegin Taylor Hatmaker in ihrer Geschichte im August feststellte, kann das Fehlen eines robusten Satzes von Inhaltsfiltersystemen zu Schäden für unterrepräsentierte Gruppen wie die LGBTQ-Community führen.