Das Panel auf der Bühne der Informed-Veranstaltung der Knight Foundation gehört Elon Musk Albtraum stumpfe Rotation: Techdirt-Redakteur Mike Masnick, Twitters ehemaliger Sicherheitsleiter Yoel Roth und Bluesky-CEO Jay Graber, die zusammengekommen sind, um über die Moderation von Inhalten im Fediversum zu diskutieren.
Es ist mehr als ein Jahr her, seit Musk mit im Twitter-Hauptquartier aufgetaucht ist ein buchstäbliches Waschbecken im Schlepptau, aber viele Social-Media-Nutzer sind immer noch ein bisschen nomadisch und schwanken zwischen verschiedenen aufstrebenden Plattformen. Und wenn sich ein Nutzer in der Musk-Ära dafür entschieden hat, Twitter zu verlassen, sucht er wahrscheinlich nach einer Plattform mit tatsächlich Moderationsrichtlinienwas für Führungskräfte wie Graber noch mehr Druck bedeutet, das fragile Gleichgewicht zwischen mühsamer Übermäßigung und einem völlig unkomplizierten Ansatz zu finden.
„Die ganze Philosophie war, dass dies eine gute UX und eine gute Erfahrung sein muss“, sagte Graber über ihren Ansatz, Bluesky zu leiten. „Die Leute sind nicht nur wegen der Dezentralisierung und abstrakten Ideen dabei. Sie sind hier, um Spaß zu haben und eine gute Zeit zu haben.“
Und zu Beginn hatten die Benutzer eine gute, wirklich gute Erfahrung.
„Wir hatten ein wirklich hohes Verhältnis von Postern zu Lurkern. Auf vielen sozialen Plattformen gibt es einen sehr kleinen Prozentsatz an Leuten, die posten, und einen sehr großen Prozentsatz an Leuten, die lauern“, sagte Graber. „Es war eine sehr aktive Posting-Kultur, und das ist auch weiterhin der Fall, auch wenn der Anfang extrem hoch war und 90–95 % der Nutzer alle posteten.“
Aber Bluesky hat einiges erlebt Wachstumsschmerzen in der Betaphase, während es herausfindet, wie man bei heiklen Problemen bei der Inhaltsmoderation vorgehen soll. Bei einem Vorfall, zu dem Roth Graber im Panel befragte, stellten Benutzer fest, dass Bluesky keine Liste mit Wörtern hatte, deren Verwendung in Benutzernamen verboten war. Infolgedessen begannen Benutzer, Kontonamen bei zu registrieren rassistische Äußerungen.
„Im letzten Sommer waren wir ein wirklich kleines Team, weniger als zehn Ingenieure. Wir könnten alle an einem Konferenztisch Platz nehmen“, sagte Graber. Als Inhaltsmoderatoren das Problem mit Beleidigungen in Benutzernamen entdeckten, korrigierte das Team den Open-Source-Code, sodass Benutzer die Implementierung der Wortlisten in Echtzeit sehen konnten, was weitere Debatten auslöste. „Wir haben viel über Kommunikationstransparenz und wirklich proaktives Handeln gelernt…. Einer der Gründe, warum wir so lange in der Beta-Phase geblieben sind, besteht darin, uns etwas Spielraum zu verschaffen, um dies richtig zu machen.“
Seitdem sind sowohl die Nutzerbasis als auch das Team von Bluesky gewachsen. Bluesky stellte mehr Ingenieure und Inhaltsmoderatoren ein, während die Gesamtzahl der Nutzer von etwa 50.000 Ende April 2023 auf über 3 Millionen in diesem Monat stieg. Und die Plattform ist immer noch nicht für die Öffentlichkeit zugänglich.
„Man kann mit Fug und Recht sagen, dass etwa die Hälfte unserer technischen Produktarbeit in irgendeiner Weise mit Vertrauen und Sicherheit zu tun hat, denn Moderation ist von entscheidender Bedeutung dafür, wie dies in einem offenen Ökosystem funktioniert“, sagte Graber.
Für Plattformen wie Bluesky, Mastodon und Threads werden die Herausforderungen bei der Inhaltsmoderation noch komplizierter, wenn man die Variable des Fediversums hinzufügt.
Sobald das AT-Protokoll vollständig einsatzbereit ist, kann jeder sein eigenes soziales Netzwerk auf der Infrastruktur von Bluesky aufbauen – Bluesky ist als soziales Netzwerk nur eine App, die auf dem Protokoll basiert. Dies bedeutet jedoch, dass das Unternehmen entscheiden muss, wie (oder ob) es regulieren soll, was die Leute auf der Plattform tun, wenn neue Netzwerke auf dem AT-Protokoll auftauchen. Das bedeutet vorerst, dass Bluesky das aufbaut, was es „zusammensetzbare Moderation“ nennt.
„Unsere umfassendere Vision ist hier komponierbare Moderation, und das bedeutet im Wesentlichen, dass wir für die von uns betriebenen Dienste, wie die App, eine Basis für die Moderation festlegen“, sagte Graber. „Aber wir wollen ein Ökosystem aufbauen, an dem jeder teilnehmen kann [in moderation]und Dritte sind in Wirklichkeit Erstparteien.“
Graber erklärt das komplizierte Konzept weiter in a Blogeintrag:
Zentralisierte soziale Plattformen delegieren die gesamte Moderation an eine zentrale Gruppe von Administratoren, deren Richtlinien von einem Unternehmen festgelegt werden. Das ist ein bisschen so, als würde man alle Streitigkeiten auf der Ebene des Obersten Gerichtshofs lösen. Verbundnetzwerke delegieren Moderationsentscheidungen an Serveradministratoren. Dies ähnelt eher der Beilegung von Streitigkeiten auf der Ebene der Landesregierung, was besser ist, da Sie in einen neuen Staat ziehen können, wenn Ihnen die Entscheidungen Ihres Staates nicht gefallen – in anderen Netzwerken ist ein Umzug jedoch normalerweise schwierig und teuer. Wir haben diese Situation verbessert, indem wir den Serverwechsel erleichtert und die Moderation in strukturell unabhängige Dienste aufgeteilt haben.
Bluesky kann also vorschreiben, dass Urheberrechtsverletzungen und Spam nicht erlaubt sind, aber eine einzelne App, die auf dem Protokoll basiert, kann ihre eigenen Regeln aufstellen, solange diese nicht im Widerspruch zu Blueskys Grundprinzipien stehen. Beispielsweise erlaubt Bluesky Benutzern, Inhalte für Erwachsene zu posten, aber wenn jemand einen familienfreundlicheren Server auf dem AT-Protokoll aufbauen würde, hätte er das Recht, Inhalte für Erwachsene von seinem spezifischen Server zu verbannen – und wenn jemand auf diesem Server damit nicht einverstanden wäre Mit dieser Entscheidung könnten sie ihr Konto problemlos auf einen anderen Server übertragen und alle ihre Follower behalten.
„Eines der Probleme, die wir derzeit haben, ist, dass es keine wirklich algorithmische Wahl ist, wenn man nur das hat, was Twitter oder Meta bietet, und vielleicht nur ein paar Optionen oder Kontrollkästchen“, sagte Masnick. „Das ist keine wirklich zusammensetzbare Moderation. Damit erreicht man nicht das Niveau, bei dem man verschiedenen Unternehmen wirklich erlauben kann, unterschiedliche Dinge auszuprobieren und zu experimentieren und herauszufinden, was am besten funktioniert.“
Benutzer können sich auch dafür entscheiden, Feeds von Drittanbietern zum Anzeigen von Inhalten zu verwenden, anstatt nur zwischen den Registerkarten „Empfohlen“ und „Folgen“ auszuwählen.
„Anstatt den Leuten zu sagen, dass die Dezentralisierung all diese Vorteile auf abstrakte Weise bietet […] „Es ist viel aussagekräftiger, einfach zu sagen: Hier gibt es 25.000 benutzerdefinierte Feeds, die Drittentwickler erstellt haben, und Sie können einfach aus ihnen auswählen“, sagte Graber.
Aber da Bluesky noch in den Kinderschuhen steckt, wurde diese komponierbare Moderationsphilosophie noch nicht wirklich getestet. Mittlerweile sind Unternehmen aus Wolkenflarezum Substack, zu Mastodon haben darüber nachgedacht, was zu tun ist, wenn sich gefährliche Communities auf Ihrer Plattform organisieren.
„Nehmen wir an, jemand nimmt den ganzen Code, den Sie veröffentlicht haben, und das AT-Protokoll und baut ein neues Netzwerk auf. Nennen wir es NaziSky“, sagte Roth zu Graber. „Was machst du?“
Mastodon stand 2019 vor einem solchen Problem, als das rechtsextreme, nazifreundliche soziale Netzwerk Gab nach dem Rauswurf aus GoDaddy auf seine Server migrierte. Der Gründer von Mastodon verurteilte Gab, sagte damals jedoch, dass die Dezentralisierung ihn daran hindere, tatsächlich Maßnahmen zu ergreifen – die Benutzer müssten die Angelegenheit also selbst in die Hand nehmen. Einzelne Mastodon-Server blockierten den Server von Gab massenhaft und machten es Gab-Mitgliedern unmöglich, mit anderen auf der Website zu interagieren. Dennoch muss Mastodon damit rechnen, dass sein Open-Source-Code für die Stromversorgung seines Unternehmens verwendet wird Anrufe eine „kaum (wenn überhaupt) verschleierte weiße supremacistische Plattform.“
„Dies ist einer der Nachteile von Open Source, nämlich dass es viele Vorteile bietet – Dinge sind offen, jeder kann zusammenarbeiten, jeder kann beitragen, jeder kann den Code verwenden“, sagte Graber. „Das bedeutet auch, dass Menschen, deren Werte drastisch von Ihren abweichen, den Code verwenden, ihn sich schnappen und damit arbeiten können.“
Wie bei Mastodon geht Graber davon aus, dass die Nutzerbasis letztendlich den Ton für das annehmbare Verhalten auf der Plattform vorgeben wird.
„Es ist ein pluralistisches Ökosystem. Es gibt viele Parteien da draußen, und wenn sie einstimmig entscheiden, dass etwas außerhalb des Overton-Fensters der Kommunikationsnormen liegt, dann wird das zu einer Art gesellschaftlichem Konsens“, sagte Graber. „Wenn ein ganzes Paralleluniversum entsteht, ist das mit Open-Source-Software möglich, aber diese Gemeinschaften reden nicht unbedingt, wenn die Normen so drastisch voneinander abweichen.“
Andererseits haben dominante und zentralisierte soziale Plattformen wie Facebook und X die Gefahren aufgezeigt, die entstehen können, wenn nur wenige Personen und nicht ganze Gemeinschaften für diese Moderationsentscheidungen verantwortlich sind.
„Leider kann man aus einem Nazi keinen Nicht-Nazi machen. Aber wir können den Einfluss der Nazis begrenzen“, sagte Masnick. „Beschränken wir ihre Fähigkeit, Chaos anzurichten. Ich denke, das führt auf lange Sicht zu einer besseren Platzierung.“