Der jüngste Vorschlag der liberalen Regierung zur Regulierung von Social-Media-Plattformen, das Online Harms Act (Bill C-63)kommt als letzter Akt in a versprochene Trilogie der Rechnungen Ziel ist es, Ordnung in die digitale Welt zu bringen.
Nach umstritten versucht, die Folgen des Online News Act anzugehen und das Bedrohung durch Online-Streaming-Plattformen für kanadische InhalteDieser endgültige Gesetzentwurf versucht, schädliche Inhalte zu identifizieren und zu regulieren. Es folgt das Online Harms Act EuropaDie Großbritannien Und Australien bei der Einrichtung einer neuen Regulierungsbehörde, um der Verbreitung von als schädlich geltenden Inhalten entgegenzuwirken.
Die Idee, dass solche Bemühungen notwendig sind, ist nicht umstritten – Inhalte, die beispielsweise Kinder sexuell ausbeuten, gab es bereits ein Ziel für die Strafverfolgungund Hassreden sind seit Jahrzehnten illegal Die meisten industrialisierten Demokratien.
Plattformverantwortung
Online-Schadensgesetze basieren auf der Idee „Haftung des Vermittlers„: Die Plattformen rechtlich zur Verantwortung ziehen, wenn Nutzer sie zur Verbreitung von Inhalten nutzen, die gegen Gesetze verstoßen.
Nach dem Online Harms Act müssen Plattformen zwei Formen von Inhalten umgehend entfernen – solche, die „ein Kind sexuell schikanieren oder einen Überlebenden erneut zum Opfer machen“ und „intime Bilder, die ohne Zustimmung gepostet werden“ – andernfalls drohen hohe Geldstrafen.
Es umfasst aber auch weniger strenge Maßnahmen zum Umgang mit anderen Formen schädlicher Inhalte, einschließlich der Förderung von Terrorismus oder Völkermord, der Aufstachelung zu Gewalt oder Hassreden. Plattformen müssen Pläne entwickeln und veröffentlichen, um „das Risiko zu mindern, dass Benutzer schädlichen Inhalten auf den Diensten ausgesetzt werden, und digitale Sicherheitspläne bei der Digital Safety Commission of Canada einzureichen.“
Verbrechen und Bestrafung
es gibt auch neue Straftatbestände und Strafen für Benutzer, die diese Arten von Inhalten hochladen. Diese Bestimmungen waren Gegenstand von einen Großteil der Debatte über den Gesetzentwurf.
Viele bürgerliche Libertäre argumentieren, dass sie zu weit gehenwährend Befürworter marginalisierter Gruppen glauben, dass dies der Fall ist lange überfällig.
Bei vielen Debatten über diese spezifischen Details wird jedoch ein tiefer liegendes Versagen des Gesetzentwurfs außer Acht gelassen, das auf die Art und Weise zurückzuführen ist, wie die Idee des „Online-Schadens“ verstanden wird.
„Rechtmäßig, aber schrecklich“
Während eines Großteils des letzten Jahrzehnts haben Wissenschaftler der digitalen Medien ihre Aufmerksamkeit auch auf unterschiedliche Arten der Plattformkommunikation gelenkt sollte als schädlich angesehen werden. Die Definition schädlicher Inhalte in Bill C-63 konzentriert sich auf Schäden, die Benutzern entstehen, wenn sie auf bestimmte Formen von Inhalten stoßen, die von anderen gepostet wurden.
Aber Plattformen sind nicht nur leere Räume, in denen Benutzer Nachrichten an andere Benutzer senden können –Sie spielen eine aktive Rolle bei der Gestaltung der stattfindenden Kommunikation, bei der Festlegung, wie Nachrichten kombiniert und sortiert werden und wie ihre Verteilung priorisiert und begrenzt wird.
Aus diesem Grund, Auch Algorithmen, die bestimmte Arten von Nachrichten verstärken oder unterdrücken, sollten als Schadensquelle angesehen werden.
Dies wird oft als Grund angesehen, warum Fake News oder überparteiliche politische Kommentare auf Plattformen so problematisch sind. Sogar vollkommen legale Kommunikation – das sogenannte „rechtmäßig, aber schrecklich„Inhalte – können zu einem Muster schwerwiegender Schäden beitragen.
Eine Person leugnet den wissenschaftlichen Konsens über Impfstoffe und verbreitet völlig unbegründete Verschwörungstheorien über politische Persönlichkeiten oder Menschen vom Wählen abzuhaltenist möglicherweise nicht „schädlich“ in dem Sinne, wie Bill C-63 das Konzept definiert.
Aber wenn Social-Media-Algorithmen dafür sorgen, dass viele Nutzer keinen Gegenbeweis von außerhalb ihrer „Filterblase„Die Gefahren sind real. Dies gilt auch für viele andere Arten von.“ Plattform-Täuschungwie zum Beispiel KI-generierte Deep-Fake-Videos der politischen Kandidaten.
Demokratie in Gefahr
Demokratie beruht auf offenen und rationalen Überlegungen. Die Bedingungen für diese Art der Kommunikation können durch die Funktionsweise von Algorithmen verschlechtert werden. Dass Algorithmen von privaten, gewinnorientierten Unternehmen betrieben werden, die das „Engagement“ maximieren wollen, macht das Problem noch schlimmer; Dadurch entsteht ein Anreiz für Inhalte, die Empörung hervorrufen und weiter polarisiert die politische Meinung.
Wie genau Algorithmen reguliert werden sollten, ist keine einfache Frage. Einige der Bestimmungen im Gesetzentwurf C-63 könnten ein Schritt in die richtige Richtung sein: Anforderungen an Risikominderungspläne, eine Ombudsperson, die der Öffentlichkeit dabei helfen kann, Beschwerden über Plattformen bei einer Regulierungsbehörde einzureichen, und Verpflichtungen zur Bereitstellung von Informationen über Inhalte. Und was noch wichtiger ist: All dies kann geschehen, ohne die Meinungsfreiheit der Nutzer unnötig zu verletzen.
Allerdings wäre eine spezifischere gesetzliche Verpflichtung der Plattformen zur Herabstufung eindeutig falscher Inhalte – etwa Nachrichten zur öffentlichen Gesundheit oder Informationen im Zusammenhang mit Wahlen – erforderlich, um die zunehmende Online-Polarisierung und -Werbung zu stoppen antidemokratischer Populismus.
Während der Online Harms Act Einzelpersonen davor schützen könnte, bestimmten Arten von Inhalten ausgesetzt zu sein, erfordert der Schutz des demokratischen Charakters unserer Gesellschaft ein strengeres Regelwerk als das, was vorgeschlagen wurde.
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.