Die Wachstumsschwierigkeiten von Bluesky belasten die Beziehung zu schwarzen Nutzern

Bluesky, der Dezentralisierte soziales Netzwerk und führende Alternative zu Twitter, wird als Wunderland lustiger Beiträge und guter Stimmung gefeiert. Aber eine Änderung der Moderationspolitik, die auf eine Morddrohung gegen einen schwarzen Benutzer folgte, hat viele Bedenken Blauer Himmel Es stellt sich die Frage, ob die Plattform für marginalisierte Gemeinschaften überhaupt sicher ist.

Bluesky hatte Ende April rund 50.000 Nutzer. Die Zahl der Nutzer hat sich seitdem verdoppelt, und je mehr es zunimmt, desto größer wird auch der Druck, gegen Hassreden und andere gewalttätige Kommentare vorzugehen. Als bald föderierte Plattform befindet sich Bluesky an einem Wendepunkt, der einen Präzedenzfall für die Moderation dezentraler sozialer Netzwerke schaffen könnte. Obwohl eine solide Moderation nicht zu den Gründungsprinzipien von Bluesky gehörte, erwarten viele Benutzer von der Website, dass sie Plattform-Intoleranz proaktiver ablehnt – auch wenn dies im Widerspruch zu den dezentralen Zielen von Bluesky steht.

Bluesky hat keinen konkreten Zeitplan für die Föderation bekannt gegeben. In einem 5. Mai BlogeintragDas Bluesky-Team sagte, es plane, eine „Sandbox-Umgebung“ zu starten, um „bald“ mit der Testphase der Föderation zu beginnen.

Es begann letzten Monat im Höllenthread. Der Thread, der ursprünglich entstand, als ein Codierungsfehler jeden einzelnen Benutzer im Thread jedes Mal benachrichtigte, wenn ein anderer Benutzer darauf antwortete, wuchs zu einem chaotischen, scheinbar endlosen Diskussionsforum mit unzähligen Unterthreads. Ursprünglich war der Thread eine Plattform für Shitposting, hat sich aber zu einer Brutstätte des Diskurses entwickelt – und öffnet damit Tür und Tor für grassierenden Rassismus.

Aveta, ein Softwareentwickler, der Hunderte schwarzer Benutzer zu Bluesky eingeladen hat, in der Hoffnung, Black Twitter nachzubilden, antwortete in dem Thread und forderte die Leute auf, keine Memes mehr von R. Kelly zu posten. Aveta ist auf Bluesky bekannt für Erweiterung der schwarzen Community auf der Plattform und ist ein ausgesprochener Verfechter der Anerkennung des Einflusses der Schwarzen auf die Internetkultur.

Letzten Monat hatte sie einen Streit mit Alice, einer Bluesky-Benutzerin, die sich „cererean“ nannte, über Kommentare, die Alice über die wachsende schwarze Community gemacht hatte. Alice hat im letzten Monat mehrere rassistische Beiträge verfasst, darunter einen, in dem es heißt, dass schwarze Benutzer gerne ihre eigenen Räume schaffen können, wenn sie nicht an einem Ort sein wollen, der „die Demografie der Anglosphäre widerspiegelt“.

Als Antwort auf einen weiteren Kommentar zu Avetas Höllenthread-Interaktionen schlug Alice vor, Aveta „an einen wirklich hohen Ort“ zu verdrängen. Aveta, der aus Angst vor Belästigung einen Kommentar ablehnte, beschrieben Alices Kommentar als Morddrohung in Beiträgen auf Bluesky.

Andere Benutzer berichteten, Alices Kommentar sei ein Verstoß gegen Blueskys Richtlinien zum Verbot extremer Gewalt. Das Moderationsteam von Bluesky verbot Alice zunächst nicht und sorgte für weitere Empörung unter den Nutzern, als Jay Graber, CEO von Bluesky, eine Änderung der Richtlinien der Plattform ankündigte, die Kommentare wie die von Alice zu entschuldigen schien.

„Wir dulden keine Morddrohungen und werden weiterhin Konten entfernen, wenn wir glauben, dass ihre Beiträge eine gezielte Belästigung oder eine glaubwürdige Androhung von Gewalt darstellen. Aber nicht jede hitzige Sprache überschreitet die Grenze zur Morddrohung“, sagte Graber in einem Wochenend-Thread. „Ob klug oder nicht, viele Menschen verwenden gewalttätige Bilder, wenn sie streiten oder sich Luft machen. Wir diskutierten darüber, ob eine „Morddrohung“ spezifisch und direkt sein muss, um Schaden anzurichten, und was es für die Fähigkeit der Menschen bedeuten würde, sich an hitzigen Diskussionen über Bluesky zu beteiligen, wenn wir diese Art von Rede verbieten würden.“

Gemäß der neuen Richtlinie von Bluesky führt jeder Beitrag, der mit Gewalt oder Körperverletzung droht – sei es wörtlich oder metaphorisch – zu einer vorübergehenden Sperrung des Kontos. Wiederholungstäter werden vom Bluesky-Server verbannt, aber sobald Bluesky die „für die Föderation erforderliche Arbeit“ abgeschlossen hat, können Benutzer mit intakten Gegenseitigkeitsdaten und anderen Daten auf einen neuen Server wechseln, sagte Graber.

Wie Mastodon möchte Bluesky ein dezentrales, föderiertes soziales Netzwerk sein. Es ist noch nicht föderiert, daher interagieren alle Benutzer weiterhin auf dem Server von Bluesky und müssen sich an die Richtlinien von Bluesky halten. Sobald es föderiert ist, können sich alle Benutzer auf jedem Server des AT-Protokolls für ein Community-Labeling-System entscheiden, das bestimmte Inhaltsfilter enthält.

Das bedeutet, dass ein Benutzer, der wegen Hassrede oder gewalttätiger Drohungen gesperrt wurde, gemäß der neuen Inhaltsmoderationsrichtlinie von Bluesky weiterhin mit anderen Servern interagieren kann, die auf dem AT-Protokoll laufen. Bluesky war bei der Entwicklung eines dezentralen sozialen Netzwerks immer transparent, aber die schnellen Maßnahmen, die es zuvor gegen Benutzer ergriffen hat, die andere bedrohten, überzeugten viele Bluesky-Erstanwender davon, dass die Plattform weiterhin gewalttätige oder hasserfüllte Rhetorik unterbinden würde.

„Obwohl dies nicht unbedingt Ihre Vision ist, denke ich, dass es vielen Menschen weniger darum geht, zu einer neuen Instanz von Bluesky zu wechseln, als vielmehr darum, sicherzustellen, dass Fanatiker hier keine *irgendeine* Instanz haben können“, sagt Ben Perry, ein Bluesky Benutzer, auch bekannt als Tedcruznipples, antwortete zu Grabers Thread. „Ihnen sollte nicht die Möglichkeit gegeben werden, sich zu verbünden und ihre Botschaft zu verbreiten.“

Bluesky führte am Tag nach der Ankündigung der neuen Moderationsrichtlinie durch Graber benutzerdefinierte Algorithmen ein. Mit dieser Funktion können Benutzer aus Blueskys „Marktplatz der Algorithmen“ wählen, anstatt nur Inhalte des „Master-Algorithmus“ zu sehen, den die meisten Social-Media-Sites verwenden. Wie bei Twitter-Listen können Benutzer zwischen der Registerkarte „Was ist aktuell“, einer Registerkarte mit Personen, denen sie folgen, und Registerkarten für benutzerdefinierte Feeds, die sie angeheftet haben, wechseln. Der Feed „Katzenbilder“ zeigt erwartungsgemäß Katzenbilder, während andere Feeds eher auf Memes und NSFW-Inhalte ausgerichtet sind.

Viele Bluesky-Benutzer – insbesondere Black Bluesky-Benutzer – stellten jedoch den Zeitpunkt der Einführung in Frage. Rudy Fraser, der einen benutzerdefinierten Algorithmus für schwarze Benutzer namens Blacksky entwickelt hat, sagte, es sei bedauerlich, dass Bluesky versucht habe, benutzerdefinierte Algorithmen als „Lösung“ für die Moderationsdebatte anzubieten.

„Als ob eine neue Funktion das zugrunde liegende Problem lösen würde und als ob sie den beleidigenden Benutzer nicht einfach sperren könnten“, sagte Fraser. „Eine Form der programmierbaren Moderation ist in Sicht, aber es gibt noch keinen Prototypen, um zu sehen, wie das funktionieren würde … Es gibt beispielsweise bereits Möglichkeiten, die NSFW-Tags zu umgehen. Sie müssen diese Fehler finden, bevor sie die kritische Masse erreichen.“

Die Moderation dezentraler sozialer Netzwerke ist eine Herausforderung, die per Definition keine einfachen Lösungen bietet. Im Fall von Bluesky scheint die Festlegung und Durchsetzung zentralisierter Community-Richtlinien für alle Benutzer im Widerspruch zu Blueskys angestrebtem System der Föderation und anpassbaren Moderation zu stehen. An MastodonDie Moderation ist für jeden Server einzigartig und die Richtlinien eines Servers können nicht auf einem anderen Server mit einem anderen Regelsatz durchgesetzt werden. Wird unter Mastodon gelistet ServerauswahlServer müssen sich dazu verpflichten Mastodon-Server-Vertrag, die „aktive Moderation gegen Rassismus, Sexismus, Homophobie und Transphobie“ erfordert. Während sich die meisten prominenten Server an die Vereinbarung halten, unterliegen nicht gelistete Server nicht einem Mindestmaß an Moderation.

Das Fediversum, ein Portmanteu von „föderiertes Universum“, verspricht ein riesiges soziales Netzwerk, das über die Autorität einer einzelnen Institution hinaus existieren kann. Obwohl dieses Maß an Unabhängigkeit Vorteile mit sich bringt, ist der Ansatz der Community-geführten Moderation im besten Fall oft optimistisch und im schlimmsten Fall fahrlässig. Plattformen können sich von der Last der Moderation befreien, die arbeitsintensiv, kostspielig und immer spaltend ist, indem sie stattdessen den Nutzern das Steuer überlassen.

Wenn Gemeinschaften die Möglichkeit gegeben wird, sich selbst zu moderieren, kann gewalttätigem Hass auch keine Kontrolle entzogen werden. In einem aktuellen SkeetDer Softwareentwickler Dare Obasanjo wies darauf hin, dass viele „technikoptimistische“ Ansätze zur Inhaltsmoderation den Kontext nicht berücksichtigen.

„Ein Benutzer mit einer bösartigen rassistischen Vorgeschichte, der sich auf einem BIPOC etwas Böses wünscht, unterscheidet sich von dem gleichen Kommentar in einer Debatte über MCU- versus DCEU-Filme von ansonsten gut erzogenen Benutzern“, schrieb Obasanjo. „Eine legalistische Diskussion darüber, ob ‚jemand sollte dich von einem hohen Gebäude stoßen‘ ein verbotswürdiges Vergehen ist, geht völlig am Kern der Sache vorbei. Die Frage ist, ob Sie in Ihrer App offen rassistische Personen tolerieren, die BIPOC Schaden zufügen wollen, oder nicht?“

Bluesky setzt automatisierte Filter ein, um illegale Inhalte auszusortieren und einen ersten Schritt zur Kennzeichnung als „anstößiges Material“ durchzuführen, wie in a beschrieben Blogeintrag über die Composable Moderation der Plattform. Anschließend wendet Bluesky Filter auf Serverebene an, die es Benutzern ermöglichen, möglicherweise explizite oder anstößige Inhalte auszublenden, zu warnen oder anzuzeigen. Bluesky plant, Benutzern die Aktivierung bestimmter Filter zu ermöglichen, um ihre individuellen Feeds weiter anzupassen. Die ACLU kann beispielsweise bestimmte Konten und Beiträge als „Hassrede“ kennzeichnen. Andere Benutzer können den Inhaltsfilter der ACLU abonnieren, um Inhalte stummzuschalten.

Graber schrieb, dass das mehrschichtige, anpassbare Moderationssystem darauf abzielt, „der Benutzersicherheit Priorität einzuräumen und den Menschen gleichzeitig mehr Kontrolle zu geben“. Das Unternehmen hat nicht öffentlich klargestellt, ob es plant, auch menschliche Moderatoren einzustellen.

Die Moderation in den frühen Tagen von Bluesky stieß bei den Nutzern auf gemischte Resonanz. Im April sperrte Bluesky einen Benutzer namens Hannah, weil er Matt Yglesias mit „WIR WERDEN SIE MIT HÄMMERN SCHLAGEN“ geantwortet hatte. Viele Bluesky-Benutzer protestierten gegen das Verbot und bestanden darauf, dass der Benutzer einen Scherz gemacht habe. Tage später sperrte Bluesky umgehend ein weiteres Konto, das andere Benutzer mit transphoben Kommentaren belästigt hatte.

Hannahs Hammerverbot tauchte bei Bluesky im Zuge der Änderung der Moderationspolitik erneut auf. Benutzer von Black Bluesky fragten, warum die Drohung gegen Aveta nicht so ernst genommen wurde wie Hannahs Antwort. Mekka Okereke, Director of Engineering bei Google Play, beschrieb Hannahs Kommentar als „metaphorisch und unangemessen“, betonte jedoch, dass „die Leute einfach kein Mitgefühl entwickeln können, wenn schwarze Frauen das Thema sind.“

„Und wie ich hier bereits gesagt habe, ist ‚Echokammer‘ ein spezifischer Begriff, der hauptsächlich von rechten Nachrichtenagenturen verwendet wird, um jeden Ort zu beschreiben, der versucht, schwarzen, braunen und LGBTQIA-Menschen ein Gefühl der Sicherheit zu geben“, sagte Okereke in einem Post. „Und der philosophische Pedantismus ‚Wahrheit zählt‘ scheint nur dann zum Vorschein zu kommen, wenn es darum geht, schwarzen Frauen ein sicheres Gefühl im Internet zu geben.“

Pariss Athena, Gründerin der Jobbörse Black Tech Pipeline, räumte ein, dass kein Online-Bereich wirklich sicher sei, wies jedoch darauf hin, dass direkter Rassismus, Transphobie und Anti-Blackness „keine fließenden Grenzen“ seien.

„Rechenschaftspflicht und dauerhaftes Handeln müssen so umgesetzt werden, wie sie offline sind“, schrieb sie in einem Post. „Das Seltsame ist, dass diese Oberschenkel bereits bei Bluesky aufgetreten sind, aber bei schwarzen Leuten scheint es viel langsamer zu gehen.“

Benutzer lobten die Plattform einst dafür, dass sie sich weigerte, Hassreden zuzulassen – eine Entscheidung, die vielen Black Bluesky-Benutzern nach der jüngsten Änderung der Moderationsrichtlinien hohl vorkommt. Bluesky unterschied sich von Twitter nicht nur durch seine anpassbaren Funktionen, sondern auch durch das scheinbar ernsthafte Interesse am Schutz marginalisierter Gruppen. Die jüngsten politischen Änderungen lassen jedoch viele daran zweifeln, dass Bluesky diese Sicherheit aufrechterhalten kann.

Fraser ist sich nicht sicher, ob Bluesky bereit ist, „richtige Verwalter eines sicheren Raums für Randgruppen“ zu sein, ist aber entschlossen, vorerst auf der Plattform zu bleiben.

„Ich bin wirklich optimistisch, was das Potenzial des Protokolls angeht, und hoffe, dass sie in Zukunft deutlichere Anstrengungen unternehmen werden, um gemeinsam mit marginalisierten Gemeinschaften zusammenzuarbeiten“, sagte Fraser. „Ich bin fest davon überzeugt, dass es bei uns nichts ohne uns gibt.“

tch-1-tech