Das Moderieren einer Online-Community ist harte, oft undankbare Arbeit – und es ist noch schwieriger, wenn es in einem Silo passiert.
Auf Twitch tauschen miteinander verbundene Kanäle bereits informell Informationen über Benutzer aus, die sie lieber fernhalten. Das Unternehmen formalisiert diese Ad-hoc-Praxis nun mit einem neuen Tool, das es ermöglicht Kanäle tauschen Sperrlistenund lädt Communities ein, zusammenzuarbeiten, um Serienbelästiger und anderweitig störende Benutzer auszusperren, bevor sie Probleme verursachen können.
In einem Gespräch mit Tech erklärte Twitch Product VP Alison Huffman, dass das Unternehmen die Community-Moderatoren letztendlich stärken möchte, indem es ihnen so viele Informationen wie möglich zur Verfügung stellt. Huffman sagt, dass Twitch „ausführliche“ Interviews mit Mods geführt hat, um herauszufinden, was sie brauchen, um sich effektiver zu fühlen und ihre Communities sicherer zu machen.
Moderatoren müssen im Handumdrehen eine Menge kleiner Entscheidungen treffen, und die größte ist im Allgemeinen, herauszufinden, welche Benutzer in gutem Glauben handeln – nicht absichtlich Probleme verursachen – und welche nicht.
„Wenn es jemand ist, den Sie sehen, und Sie sagen: ‚Oh, das ist eine leicht verzerrte Nachricht, ich frage mich, ob sie nur neu hier sind oder ob sie böse Absichten haben‘ – wenn sie in einem Ihrer gesperrt wurden In den Kanälen von Freunden ist es für Sie einfacher zu sagen: ‚Ja, nein, das ist wahrscheinlich nicht die richtige Person für diese Community‘, und Sie können diese Entscheidung leichter treffen“, sagte Huffman.
„Das reduziert den mentalen Aufwand für Moderatoren und entfernt effizienter jemanden, der nicht der Richtige für die Community ist, aus Ihrer Community.“
Innerhalb des Ersteller-Dashboards können Ersteller und Kanal-Mods andere Kanäle auffordern, mit denen sie Listen gesperrter Benutzer tauschen möchten. Das Tool ist bidirektional, sodass jeder Kanal, der die Liste eines anderen Streamers anfordert, im Gegenzug seine Liste teilt. Ein Kanal kann alle Anfragen zum Teilen von Sperrlisten annehmen oder nur Anfragen von Twitch-Affiliates, -Partnern und gemeinsam verfolgten Kanälen zulassen. Alle Kanäle können Sperrlisten mit bis zu 30 anderen Kanälen austauschen, wodurch es möglich wird, eine ziemlich solide Liste von Benutzern zu erstellen, die sie lieber fernhalten möchten, und Kanäle können das Teilen ihrer Listen jederzeit beenden.
Kanäle können jedes Konto, von dem sie durch diese freigegebenen Listen erfahren, entweder automatisch überwachen oder einschränken, und sie werden standardmäßig eingeschränkt. Benutzer, die „überwacht“ werden, können immer noch chatten, aber sie werden markiert, damit ihr Verhalten genau beobachtet werden kann, und ihre erste Nachricht wird mit einem roten Kästchen hervorgehoben, das auch anzeigt, wo sie sonst noch gesperrt wurden. Von dort aus kann ein Kanal entscheiden, sie vollständig zu sperren oder ihnen Entwarnung zu geben und sie in den Status „vertrauenswürdig“ zu versetzen.
Die neuesten Moderationstools von Twitch sind eine interessante Möglichkeit für Kanäle, ihre Regeln gegen Benutzer durchzusetzen, die sich als störend erweisen könnten, aber möglicherweise davor zurückschrecken, die umfassenderen Richtlinien des Unternehmens zu brechen, die offenkundig schlechtes Verhalten verbieten. Es ist nicht schwer, sich ein Szenario vorzustellen, insbesondere für marginalisierte Gemeinschaften, in dem jemand mit schlechten Absichten einen Kanal absichtlich belästigen könnte, ohne ausdrücklich gegen die Twitch-Regeln gegen Hass und Belästigung zu verstoßen.
Twitch räumt ein, dass Belästigung „viele Erscheinungsformen“ hat, aber um von Twitch suspendiert zu werden, wird dieses Verhalten als „Stalking, persönliche Angriffe, Förderung körperlicher Gewalt, feindliche Überfälle und böswillige Falschmeldungen“ definiert. Außerhalb dieser Definition gibt es eine Grauzone des Verhaltens, die schwieriger zu erfassen ist, aber das gemeinsame Ban-Tool ist ein Schritt in diese Richtung. Wenn ein Benutzer jedoch gegen die Plattformregeln von Twitch verstößt – und nicht nur gegen die lokalen Regeln eines Kanals – ermutigt Twitch einen Kanal, dies zu melden.
„Wir glauben, dass dies auch bei Dingen helfen wird, die gegen unsere Community-Richtlinien verstoßen“, sagte Huffman. „Hoffentlich werden diese auch an Twitch gemeldet, damit wir Maßnahmen ergreifen können. Aber wir glauben, dass es bei der gezielten Belästigung helfen wird, von der wir sehen, dass sie sich insbesondere auf marginalisierte Gemeinschaften auswirkt.“
Letzten November hat Twitch eine neue Möglichkeit für Moderatoren hinzugefügt, um Benutzer zu erkennen, die versuchen, Kanalverbote zu umgehen. Dieses Tool, das das Unternehmen „Ban Evasion Detection“ nennt, verwendet maschinelles Lernen, um automatisch jeden in einem Kanal zu markieren, der sich wahrscheinlich einem Verbot entzieht, sodass Moderatoren diesen Benutzer überwachen und seine Chat-Nachrichten abfangen können.
Die neuen Funktionen passen zu Twitchs Vision von „mehrschichtiger“ Sicherheit auf seiner Plattform, bei der Ersteller live streamen, manchmal an Hunderttausende von Benutzern, und Moderationsentscheidungen auf allen Ebenen in Echtzeit getroffen werden müssen.
„Wir glauben, dass dies eine leistungsstarke Kombination von Tools ist, um Belästigungen im Chat proaktiv abzuwehren [and] Eines der Dinge, die ich daran liebe, ist, dass es eine andere Kombination aus Mensch und Technologie ist“, sagte Huffman. „Bei der Erkennung von Verbotsverstößen verwenden wir maschinelles Lernen, um Benutzer zu finden, die wir für verdächtig halten. Dabei stützen wir uns auf die menschlichen Beziehungen und die vertrauenswürdigen Schöpfer und Gemeinschaften, die sie bereits aufgebaut haben, um dieses Signal zu geben.“
Die Content-Moderation-Herausforderung von Twitch ist eine Art Schmelztiegel, in dem gefährliche Streams ein Publikum erreichen und Schaden anrichten können, wenn sie sich in Echtzeit entfalten. Die meisten anderen Plattformen konzentrieren sich auf die nachträgliche Erkennung von Inhalten – etwas wird gepostet, von automatisierten Systemen gescannt oder gemeldet, und dieser Inhalt bleibt entweder bestehen, kommt herunter oder wird mit einer Art benutzer- oder plattformgerichteter Warnung gekennzeichnet.
Das Unternehmen entwickelt seinen Sicherheitsansatz weiter und hört auf seine Community, wobei es auf die Bedürfnisse marginalisierter Communities wie der Schwarzen und LGBTQ-Streamer meditiert, die lange darum gekämpft haben, einen sicheren Raum oder eine sichtbare Präsenz auf der Plattform zu schaffen.
Im März forderte Color of Change das Unternehmen auf, seine Bemühungen zum Schutz schwarzer Schöpfer mit einer Kampagne namens #TwitchDoBetter zu verstärken. Die Trans- und breitere LGBTQ-Community hat das Unternehmen auch dazu gedrängt, mehr zu tun, um Hassüberfälle zu beenden – bei denen böswillige Benutzer den Kanal eines Streamers mit gezielter Belästigung überfluten. Twitch verklagte Ende letzten Jahres zwei Benutzer wegen der Koordinierung automatisierter Hasskampagnen, um zukünftige schlechte Schauspieler abzuschrecken.
Letztendlich werden intelligente Richtlinien, die gleichmäßig durchgesetzt werden, und Verbesserungen des Toolkits, das Moderatoren zur Verfügung haben, wahrscheinlich mehr Auswirkungen auf den Alltag haben als Gerichtsverfahren, aber mehr Verteidigungsebenen können nicht schaden.
„Für ein Problem wie gezielte Belästigung wird das nirgendwo im Internet gelöst“, sagte Huffman. „Und wie in der Nicht-Internet-Welt ist es ein ewiges Problem – und es ist keins, das eine einzige Lösung hat.
„Was wir hier zu tun versuchen, ist einfach einen wirklich robusten Satz von Tools aufzubauen, die hochgradig anpassbar sind, und sie dann in die Hände der Leute zu legen, die ihre Bedürfnisse am besten kennen, nämlich die Ersteller und ihre Moderatoren, und eben ermöglichen es ihnen, diese Suite von Tools an ihre speziellen Bedürfnisse anzupassen.“