Erklärt: Warum Google Videos von YouTube entfernt, wer entscheidet, was schädliche Inhalte sind und mehr

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Wie jede andere Content-Sharing- oder Hosting-Plattform Youtube sieht eine ganze Menge Videos, die gegen seine Richtlinien verstoßen. Tatsächlich hat YouTube kürzlich bekannt gegeben, dass es mehr als 5,6 Millionen Videos – zwischen Juli 2022 und September 2022 – wegen Verstoßes gegen seine Community-Richtlinien entfernt hat. Darüber hinaus gingen rund 271.000 Beschwerden wegen Entfernung ein. „Nach der Überprüfung haben wir etwa 29.000 Einsprüche wieder aufgenommen“, sagte YouTube in einem Blogbeitrag. Im selben Blog-Beitrag hat YouTube eine detaillierte Erklärung darüber veröffentlicht, warum Videos entfernt werden, wer die endgültige Entscheidung über die Entfernung trifft und vieles mehr. Hier schlüsseln wir es auf und erklären, warum Videos von YouTube entfernt werden


Welche Art von Videos werden von YouTube entfernt?

Jedes Video, das gegen die Richtlinien der Plattform verstößt, wird im Allgemeinen entfernt. Inhalte, die anstößiger Natur sind, bleiben nicht wirklich erhalten. Zwei hochrangige YouTube-Führungskräfte sagen, dass „die überwiegende Mehrheit der Inhalte auf YouTube nicht gegen unsere Richtlinien verstößt. Aber wir suchen immer noch nach Lücken, die sich möglicherweise aufgetan haben, oder jagen nach neuen Risiken, die unsere Richtlinien auf neue Weise auf die Probe stellen.“
YouTube sagt auch, dass es nicht alle anstößigen Inhalte von YouTube entfernt, und wir glauben im Allgemeinen, dass offene Debatten und freie Meinungsäußerung zu besseren gesellschaftlichen Ergebnissen führen. „Aber wir ziehen sorgfältig eine Grenze um Inhalte, die unseren Benutzern oder der Plattform enormen Schaden zufügen könnten“, erklären die Führungskräfte. Unter Berufung auf ein Beispiel erklärte YouTube, dass dies behauptet wurde 5G Technologie war die Verbreitung von COVID-19 zu Schäden an Mobilfunkmasten im gesamten Vereinigten Königreich führte, „wir haben schnell gehandelt, um sie gewalttätig zu machen.“ Darüber hinaus werden auch Videos entfernt, die darauf abzielen, Menschen in die Irre zu führen – unter anderem durch die Förderung falscher Informationen über die Wahlzeiten, -orte oder -voraussetzungen.


Wie wird ermittelt, welches Video gegen die Richtlinien verstößt?

Das Team von YouTube sieht sich Hunderte von Videos an, um die Auswirkungen unterschiedlicher Richtlinien zu verstehen. „Beim Ziehen einer politischen Linie geht es nie um ein einzelnes Video; Es geht darum, die Auswirkungen auf alle Videos zu durchdenken, die entfernt würden und die unter der neuen Richtlinie bleiben könnten“, sagt YouTube.


Wer nimmt den Anruf entgegen, um die Videos zu entfernen?

Nachdem die Videos das Review-Team durchlaufen haben, überprüft eine Führungsgruppe, die sich aus Leads aus dem gesamten Unternehmen zusammensetzt, den Vorschlag. Die endgültige Freigabe erfolgt von den höchsten Führungsebenen, darunter der Chief Product Officer und der CEO von YouTube.


Arbeitet YouTube mit Experten oder Gremien von Drittanbietern zusammen?

Ja tut es. YouTube arbeitet eng mit einer Reihe etablierter externer Experten zu Themen wie Hassreden oder Belästigung zusammen. Wir arbeiten auch mit verschiedenen Regierungsbehörden zu anderen wichtigen Themen wie gewaltbereitem Extremismus und Kindersicherheit zusammen. Unter Berufung auf ein Beispiel des Staatsstreichs in Myanmar im Jahr 2021 arbeitete YouTube mit Experten zusammen, um Fälle zu identifizieren, in denen Einzelpersonen ihre Sprache benutzten, um Hass und Gewalt in ethnisch-religiöser Hinsicht zu schüren. „Dadurch konnten wir die verletzenden Inhalte schnell von unserer Plattform entfernen“, so YouTube.


Wie viel KI und maschinelles Lernen werden verwendet?

YouTube sagt, dass es über maschinelle Lernmodelle verfügt, die darauf trainiert sind, potenziell verletzende Inhalte zu identifizieren. Die Rolle der Inhaltsmoderatoren bleibt jedoch während des gesamten Durchsetzungsprozesses von wesentlicher Bedeutung. „Maschinelles Lernen identifiziert potenziell verletzende Inhalte in großem Umfang und nominiert Inhalte zur Überprüfung, die möglicherweise gegen unsere Community-Richtlinien verstoßen. Inhaltsmoderatoren helfen dann dabei, zu bestätigen oder abzulehnen, ob der Inhalt entfernt werden soll“, erklärt YouTube.

toi-tech