Toxische und hasserfüllte Kommentare auf YouTube bereiten dem Unternehmen, den Erstellern und den Nutzern ständig Kopfschmerzen. Das Unternehmen hat zuvor versucht, dies einzudämmen, indem es Funktionen wie das Anzeigen einer Warnung für Personen zum Zeitpunkt der Veröffentlichung eingeführt hat, damit sie rücksichtsvoller sein können. Jetzt führt der Streaming-Dienst eine neue Funktion ein, die solche Personen aggressiver auf ihre missbräuchlichen Kommentare stößt und umfassendere Maßnahmen ergreift.
YouTube sagt, dass es eine Benachrichtigung an Personen senden wird, deren missbräuchliche Kommentare wegen Verstoßes entfernt wurden die Regeln der Plattform. Wenn ein Benutzer trotz Erhalt der Benachrichtigung weiterhin missbräuchliche Kommentare postet, wird der Dienst ihn für 24 Stunden von der Veröffentlichung weiterer Kommentare ausschließen. Das Unternehmen sagte, es habe die Funktion vor dem heutigen Rollout getestet und festgestellt, dass Benachrichtigungen und Zeitüberschreitungen sich als materiell erfolgreich erwiesen.
Momentan ist die Erkennung von Hasskommentaren nur für englischsprachige Kommentare verfügbar, aber der Streamingdienst strebt an, in Zukunft weitere Sprachen einzubinden. Insbesondere ist die Pre-Posting-Warnung für Englisch und Spanisch verfügbar.
„Unser Ziel ist es, Ersteller sowohl vor Benutzern zu schützen, die versuchen, die Community über Kommentare negativ zu beeinflussen, als auch Benutzern, deren Kommentare möglicherweise aufgrund von Richtlinienverstößen entfernt wurden, mehr Transparenz zu bieten und ihnen hoffentlich dabei zu helfen, unsere Community-Richtlinien zu verstehen“, sagte das Unternehmen.
Wenn ein Benutzer der Meinung ist, dass sein Kommentar zu Unrecht entfernt wurde, kann er seinen Kommentar teilen Rückmeldung. Das Unternehmen hat jedoch nicht gesagt, ob es die Kommentare wiederherstellen wird, nachdem es sich das Feedback angesehen hat.
Außerdem im ein Forumsbeitrag, sagte YouTube, dass es an der Verbesserung seiner KI-gestützten Erkennungssysteme gearbeitet hat. Laut dem Unternehmen wurden in der ersten Hälfte des Jahres 2022 1,1 Milliarden „Spam“-Kommentare entfernt. YouTube hat auch sein System verbessert, um Bots in Live-Chat-Videos besser zu erkennen und zu entfernen, hieß es.
YouTube und andere soziale Netzwerke konnten Spam und missbräuchliche Inhalte teilweise reduzieren, indem sie sich auf eine automatisierte Erkennung verlassen haben. Missbraucher verwenden jedoch oft verschiedene Slang- oder Rechtschreibfehler, um das System auszutricksen. Außerdem ist es schwieriger, Leute zu erwischen, die hasserfüllte Kommentare in nicht-englischen Sprachen posten.
Das Streaming-Unternehmen hat in den letzten Quartalen eine Vielzahl von Tools getestet, um Hasskommentare auf der Plattform zu reduzieren. Diese Tests umfassten das standardmäßige Ausblenden von Kommentaren und das Anzeigen des Kommentarverlaufs eines Benutzers auf seinen Profilkarten.
Letzten Monat hat Youtube eine Funktion eingeführt, mit der Ersteller verstecken Sie einen bestimmten Benutzer vor Kommentaren. Diese Kontrolle gilt für den gesamten Kanal. Selbst wenn der Nutzer Hasskommentare zu einem anderen Video postet, werden diese nicht angezeigt.
Plattformen weltweit setzen sich mit dem Problem auseinander, die Verbreitung von Hasskommentaren einzudämmen.
Instagram war ein Nährboden für sie, als die englischen Fußballer Bukayo Saka, Marcus Rashford und Jadon Sancho wegen verpasster Elfmeter bei der letztjährigen EM-Endrunde belästigt wurden. Ein neuer Bericht von GLAAD und Media Matters stellt fest, dass Anti-LGBTQ-Beleidigungen in die Höhe geschossen sind, nachdem Elon Musk Twitter übernommen hat. Während all diese Plattformen Tools zum Stummschalten oder Ausblenden von Kommentaren und zur Beschränkung von Kommentaren auf bestimmte Personen eingeführt haben, bleibt die Menge an hasserfüllten und beleidigenden Kommentaren ein massives Problem.