YouTube beginnt damit, Videos zu entfernen, die medizinische Fehlinformationen verbreiten

GoogleDie Video-Streaming-Plattform YouTube entfernt einige Videos. Das Unternehmen gab bekannt, dass es versucht, seine medizinischen Moderationsrichtlinien zu rationalisieren. Dafür wird YouTube Inhalte entfernen, die „Erwiesenermaßen schädliche oder unwirksame Krebsbehandlungen“ bewerben. Darüber hinaus werden auch Videos von der Plattform gelöscht, die „Zuschauer davon abhalten, professionelle medizinische Behandlung in Anspruch zu nehmen“. Das Unternehmen sagte, dass diese Maßnahme dazu beitragen werde, Fehlinformationen zu Themen wie Covid-19, Impfstoffe und reproduktive Gesundheit zu bekämpfen.YouTubes Richtlinien zu medizinischen Fehlinformationen
Das Unternehmen hat erklärt, dass es seine Richtlinien zu medizinischen Fehlinformationen in drei Situationen anwenden wird – wenn ein hohes Risiko für die öffentliche Gesundheit besteht, wenn öffentlich zugängliche Leitlinien von Gesundheitsbehörden verfügbar sind, und wenn ein Thema anfällig für Fehlinformationen ist.

YouTube hofft außerdem, dass dieser Richtlinienrahmen flexibel genug sein wird, um ein breites Spektrum medizinischer Themen abzudecken. Allerdings möchte das Unternehmen auch ein Gleichgewicht zwischen der Schadensminimierung und der Ermöglichung von Debatten finden.

Lesen Sie auch

In einem Blogbeitrag bestätigte YouTube, dass es sowohl gegen aktiv schädliche als auch unbewiesene Behandlungen vorgehen wird, die als etablierte Alternativen vorgeschlagen werden. Beispielsweise sollte kein Video Nutzer dazu ermutigen, Vitamin-C-Ergänzungsmittel als Alternative zur Strahlentherapie einzunehmen.YouTube verbietet Videos mit Fehlinformationen zu Impfstoffen
Im Jahr 2020 werden große Technologieplattformen wie Google, Facebook und Microsoft kamen zusammen, um eine gemeinsame Verpflichtung zur Bekämpfung von Fehlinformationen im Zusammenhang mit Covid-19 einzugehen. YouTube hat Maßnahmen gegen Fehlinformationen über Impfstoffe ergriffen und beispielsweise Anzeigen aus Anti-Vax-Verschwörungsvideos entfernt. Später, im Jahr 2021, verbot die Plattform Fehlinformationen über Impfstoffe vollständig. Darüber hinaus hat YouTube im Rahmen seiner Richtlinie zu medizinischen Fehlinformationen andere Videos verboten, die möglicherweise schädlich waren. Zu den Videos gehören auch solche, die „Anleitungen für unsichere Abtreibungsmethoden“ liefern oder „falsche Behauptungen über die Sicherheit von Abtreibungen“ verbreiten.In der Zwischenzeit, im Jahr 2022, stellte Twitter (jetzt X) nach der Übernahme durch Twitter die Durchsetzung seiner Covid-Fehlinformationsrichtlinie ein Elon Musk. Die von Mark Zuckerberg geführte Meta hat auch damit begonnen, ihre Covid-Fehlinformationsregeln in Ländern wie den USA zurückzunehmen. In diesen Ländern gilt die Krankheit nicht mehr als nationaler Notfall.



Ende des Artikels

gn-tech