Britische Internetaufsichtsbehörde warnt Social-Media-Plattformen vor der Gefahr der Anstiftung zu Gewalt

Die britische Internet-Regulierungsbehörde Ofcom hat eine offener Brief auf Social-Media-Plattformen, die Bedenken hinsichtlich der Verwendung ihrer Tools zur Anstiftung zu Gewalt wecken. Die Entwicklung folgt Tage gewaltsamer ziviler Unruhen und Aufstände in Städten im gesamten Vereinigten Königreich nach der Ermordung dreier junger Mädchen bei einem Messerangriff in Southport am 30. Juli.

Ofcom hat die Befugnis, Videoplattformen zu sanktionieren, wenn diese ihre Nutzer nicht vor Inhalten schützen, die Gewalt oder Hass schüren. Im Rahmen des neuen britischen Online Safety Act (OSA) wurden die Befugnisse von Ofcom zur Durchsetzung von Standards zur Inhaltsmoderation im Internet weiter ausgeweitet und decken nun alle Arten von Plattformen ab, darunter auch soziale Mediendienste.

Die Strafen nach dem OSA können bis zu zehn Prozent des weltweiten Jahresumsatzes betragen. Auf dem Papier verfügt die Regulierungsbehörde also über weitreichende neue Befugnisse, um gegen schwerwiegende Verstöße bei der Inhaltsmoderation vorzugehen.

Allerdings ist Ofcom noch dabei, das Regime umzusetzen. Die Durchsetzung auf Social-Media-Plattformen wird voraussichtlich nicht vor 2025 beginnen, da die Regulierungsbehörde weiterhin Leitlinien für die Einhaltung der Vorschriften durch Unternehmen berät.

Das Parlament muss diese Regeln auch genehmigen, bevor sie in Kraft treten können. Derzeit gibt es für Ofcom keine klare rechtliche Möglichkeit, Social-Media-Unternehmen zu zwingen, gegen hasserfülltes Verhalten vorzugehen, das möglicherweise gewalttätige soziale Unruhen schürt.

Dennoch gab es in den letzten Tagen Forderungen, angesichts der sozialen Unruhen den Zeitplan der Regulierungsbehörde Ofcom für die Umsetzung zu beschleunigen und im Umgang mit den Social-Media-Giganten proaktiver vorzugehen.

Im Gespräch mit BBC Radio 4 World at One-Programm am Dienstagforderte der ehemalige Minister Damian Collins Ofcom auf, „die Technologieunternehmen zu warnen“.

„Kommunikation auf Social-Media-Plattformen, die zu Gewalt aufrufen, echte Angst vor Gewalttaten schüren und Rassenhass schüren, ist laut Gesetz bereits ein Ordnungswidrigkeitsdelikt“, sagte Collins der BBC. „Ofcom muss die Technologieunternehmen jetzt in Kenntnis setzen und ihnen mitteilen, dass sie im Rahmen ihrer Befugnisse geprüft werden, um zu überprüfen, was sie unternommen haben, um die Verbreitung extremistischer Inhalte und damit verbundener Falschinformationen auf ihren Plattformen einzudämmen.“

„[The tech companies] haben die Macht, das zu tun … und meine Sorge ist, dass sie das nicht nur nicht tun, sondern diese Inhalte aktiv verbreiten und das Problem dadurch verschlimmern.“

Die Sorge über die Rolle von Social-Media-Plattformen, darunter auch Elon Musks „X“ (ehemals Twitter), löste beinahe unmittelbar die rasche Verbreitung von Falschinformationen über die Identität des Minderjährigen aus, der für die Ermordung der drei Mädchen verantwortlich war.

Den britischen Medien war es zunächst untersagt, die Identität des von der Polizei festgenommenen Verdächtigen zu nennen, da dieser unter 18 Jahre alt ist. Ein Richter hob dieses Verbot später auf und identifizierte den Teenager als einen in Großbritannien geborenen Staatsbürger namens Axel Rudakubana. Allerdings kam es zuvor zu einer Ausnutzung dieses Informationsvakuums durch rechtsextreme Aktivisten, die Plattformen wie X nutzten, um falsche Behauptungen zu verbreiten, der Mörder sei ein muslimischer Asylbewerber gewesen.

Aktivisten nutzten auch soziale Netzwerke und Messaging-Apps wie Telegram, um neue Unruhen zu organisieren. Die ersten gewalttätigen Ausschreitungen fanden am Tag nach den Morden in Southport statt. Seitdem haben sich die Unruhen auf mehrere Städte in England und Nordirland ausgeweitet, wobei es zu Plünderungen, Brandstiftungen und rassistischen Angriffen kam. Bei den Zusammenstößen wurden mehrere Polizisten verletzt.

Musk mischte sich persönlich in den Streit ein und reagierte auf Inhalte, die auf X von rechtsextremen Influencern gepostet wurden, die die Tragödie nutzen wollen, um eine spaltende politische Agenda voranzutreiben. Dazu gehören X-Nutzer Tommy Robinson (auch bekannt als Stephen Yaxley-Lennon), dessen Bericht X im letzten Jahr wieder eingesetztHeben eines Twitter-Verbot 2018 die verhängt worden war, weil in Posts, die sich gegen Muslime richteten, gegen die Richtlinien der Plattform zu hasserfülltem Verhalten verstoßen worden war.

In einem seiner eigenen Posts zu den Unruhen in Großbritannien schlug Musk vor: „Bürgerkrieg ist unvermeidlich.“ In einem anderen griff Musk den britischen Premierminister Keir Starmer an. unterstellend dass seine Regierung für eine sogenannte Zweiklassenpolizei verantwortlich sei, eine rechtsgerichtete Verschwörungstheorie, die suggeriert, dass die Polizei härter gegen rechtsextreme Kriminalität vorgeht.

Minister wiesen Musks Behauptung zurück und bezweifelten, dass die gewalttätigen öffentlichen Unruhen als Proteste eingestuft worden seien. Stattdessen bezeichneten sie die beteiligten Personen als „Schläger“, die „kriminelle Handlungen“ begangen hätten.

Die Regierung hat außerdem angekündigt, die volle Härte des Gesetzes gegen alle Beteiligten anzuwenden. Doch bleibt die heikle Frage, wie mit großen Technologieplattformen umgegangen werden soll, die dazu genutzt werden, Inhalte zu verbreiten, die Gewalt schüren und neue Unruhen organisieren sollen. Dazu gehört insbesondere X, wo der Eigentümer einer Plattform selbst das spaltende Dogwhistling verstärkt.

Der öffentliche Brief von Ofcom, der Gill Whitehead, dem Gruppenleiter für Online-Sicherheit, zugeschrieben wird, stellt die schwächste Form regulatorischer Intervention dar, die möglich ist. Es fehlt ein starker und energischer Aufruf an die Plattformen, aktiv zu werden. Es gibt lediglich den Vorschlag an die Plattformen, „jetzt zu handeln“.

Doch möglicherweise ist dies alles, was Ofcom derzeit tun kann.

„Wenn wir im Laufe des Jahres unsere endgültigen Verhaltenskodizes und Leitlinien veröffentlichen, haben die regulierten Dienste drei Monate Zeit, um das Risiko illegaler Inhalte auf ihren Plattformen zu bewerten. Anschließend müssen sie geeignete Schritte unternehmen, um deren Erscheinen zu verhindern, und die Inhalte rasch entfernen, wenn sie davon Kenntnis erlangen“, schreibt Whitehead und unterstreicht damit die Lücke bei der Durchsetzung des OSA, die dem Gesetz auferlegt wird – da es keine neuen Maßnahmen der Regierung gibt, um den Zeitplan für die Umsetzung zu beschleunigen.

„Einige der am häufigsten genutzten Online-Sites und Apps wird zu gegebener Zeit noch weiter gehen müssen – indem sie ihre Servicebedingungen konsequent anwenden, zu denen oft auch das Verbot von Hassreden, Anstiftung zur Gewalt und schädlicher Desinformation gehört“, heißt es in dem Brief von Ofcom weiter, wobei auch auf einige der künftigen Pflichten hingewiesen wird, die von den Social-Media-Unternehmen zu erfüllen erwartet werden, sobald das OSA vollständig in Betrieb ist.

Die Regulierungsbehörde sagt weiter, dass sie während der OSA-Umsetzungsphase eine „anhaltende Zusammenarbeit“ mit den Unternehmen erwarte.

„[W]„Wir begrüßen die proaktiven Ansätze, die von einigen Diensten im Zusammenhang mit diesen Gewalttaten in ganz Großbritannien verfolgt werden“, fügt Ofcom hinzu und schließt mit dem Vorschlag, dass Plattformen nicht warten sollten, bis die „neuen Sicherheitspflichten“ in Kraft treten, sondern stattdessen „jetzt handeln“ könnten, um sicherzustellen, dass ihre Dienste „sicherer für die Benutzer“ sind.

Doch ohne ein vollständig umgesetztes System, das die Plattformen zu Besserung zwingt, könnte es für gewisse Chaosstifter allzu leicht sein, den Brief der Ofcom zu ignorieren.

tch-1-tech