Crowdsourcing-Faktenprüfung bekämpft Fehlinformationen in Taiwan

Neue Untersuchungen der Cornell University zeigen, dass Journalisten und professionelle Faktenprüfer Schwierigkeiten haben, mit der Flut an Fehlinformationen im Internet Schritt zu halten. Websites wie Wikipedia, die auf lose koordinierte Beiträge von Freiwilligen angewiesen sind, können jedoch dabei helfen, die Lücken zu schließen.

Im Studie, verglichen Forscher professionelle Artikel zur Faktenprüfung mit Beiträgen auf Cofacts, einer von der Community bereitgestellten Plattform zur Faktenprüfung in Taiwan. Sie stellten fest, dass die Crowdsourcing-Site häufig schneller auf Anfragen reagierte als Profis und plattformübergreifend ein unterschiedliches Spektrum an Problemen behandelte.

„Die Überprüfung von Fakten ist eine zentrale Komponente, um unser Informationsökosystem so nutzen zu können, dass vertrauenswürdige Informationen unterstützt werden“, sagte der leitende Autor Mor Naaman, Professor für Informationswissenschaft. „Orte der Wissensproduktion wie Wikipedia und Cofacts haben sich bisher als am widerstandsfähigsten gegenüber Fehlinformationskampagnen erwiesen.“

Andy Zhao, ein Doktorand der Informationswissenschaft, nutzte die Verarbeitung natürlicher Sprache, um auf Cofacts veröffentlichte Antworten mit Artikeln zu gleichen Fragen auf zwei professionellen Websites zur Faktenprüfung abzugleichen. Er untersuchte, wie schnell die Websites Antworten auf Anfragen veröffentlichten, wie genau und überzeugend die Antworten waren und wie viele Themen abgedeckt wurden.

Er stellte fest, dass die Cofacts-Benutzer oft schneller reagierten als Journalisten, vor allem aber, weil sie „auf den Schultern von Giganten stehen“ und bestehende Artikel von Profis umfunktionieren konnten. Cofacts fungiert auf diese Weise als Informationsverteiler.

Wichtig ist, dass Zhao feststellte, dass die Cofacts-Beiträge genauso korrekt waren wie die professionellen Quellen. Sieben einheimischen taiwanesischen Doktoranden zufolge, die als Bewerter fungierten, waren Artikel von Journalisten überzeugender, Cofacts-Beiträge waren jedoch oft klarer.

Weitere Analysen ergaben, dass die Crowdsourcing-Website ein etwas anderes Themenspektrum abdeckte als die von Fachleuten behandelten. Beiträge auf Cofacts befassten sich eher mit aktuellen und lokalen Themen – etwa regionaler Politik und kleinen Betrügereien –, während Journalisten eher über Themen schrieben, die Fachwissen erforderten, darunter gesundheitsbezogene Angaben und internationale Angelegenheiten.

„Wir können die Macht der Massen nutzen, um Fehlinformationen entgegenzuwirken“, schloss Zhao. „Fehlinformationen kommen von überall, und wir brauchen diesen Kampf an allen Ecken und Enden.“

Trotz des Erfolgs von Cofacts in Taiwan warnen Zhao und Naaman davor, dass der gleiche Ansatz möglicherweise nicht auf andere Länder übertragen werden kann. „Cofacts hat auf den Benutzergewohnheiten, den Kulturen, dem Hintergrund sowie den politischen und sozialen Strukturen Taiwans aufgebaut, und das ist ihr Erfolg“, sagte Zhao.

Das Verständnis des Erfolgs von Cofacts kann jedoch bei der Entwicklung anderer Faktenprüfungssysteme hilfreich sein, insbesondere in Regionen, in denen kein Englisch gesprochen wird und die Zugang zu wenigen oder gar keinen Faktenprüfungsressourcen haben.

Die Ergebnisse sind veröffentlicht im Zeitschrift für Online-Vertrauen und -Sicherheit.

Mehr Informationen:
Andy Zhao et al., Erkenntnisse aus einer vergleichenden Studie zur Vielfalt, Geschwindigkeit, Wahrhaftigkeit und Lebensfähigkeit von Crowdsourcing- und professionellen Faktencheck-Diensten, Zeitschrift für Online-Vertrauen und -Sicherheit (2023). DOI: 10.54501/jots.v2i1.118

Zur Verfügung gestellt von der Cornell University

ph-tech