KI-gestützte „Junk-Wissenschaft“ überschwemmt Google Scholar, warnen Forscher

KI-gestützte Forschung stellt eine Bedrohung dar, sowohl für das Wissen der Gesellschaft als auch für das Vertrauen der Öffentlichkeit in die Wissenschaft. Zu diesem Schluss kamen Forscher der Swedish School of Library and Information Science der Universität Borås, Schweden, die kürzlich über hundert mutmaßlich KI-generierte Artikel in der Suchmaschine Google Scholar identifizierten.

Ihre Forschung berichtet, dass gefälschte KI-generierte wissenschaftliche Artikel die Suchmaschine Google Scholar überschwemmt haben. Die Ergebnisse der Studie zu KI-gestützter Junk-Wissenschaft bedeuten, dass gefälschte Wissenschaft verfügbar gemacht wurde und weit verbreitet werden kann, und das zu viel geringeren Kosten für böswillige Akteure. Die Arbeit wird in der Zeitschrift veröffentlicht Überprüfung der Fehlinformationen der Harvard Kennedy School.

Dies stellt eine Gefahr sowohl für die Gesellschaft als auch für die Forschungsgemeinschaft dar, sagen Jutta Haider und Björn Ekström von der Swedish School of Library and Information Science, die gemeinsam mit Kristofer Söderström von der Universität Lund und Malte Rödl von der Swedish University of Agricultural hinter der Studie stehen Wissenschaften.

Erhöhtes Risiko des Hackens von Beweismitteln

Eine der Hauptsorgen bei KI-generierter Forschung ist das erhöhte Risiko des Hackens von Beweismitteln – dass gefälschte Forschung für strategische Manipulationen genutzt werden kann.

„Das Risiko dessen, was wir ‚Evidence Hacking‘ nennen, steigt erheblich, wenn KI-generierte Forschung in Suchmaschinen verbreitet wird. Dies kann spürbare Folgen haben, da falsche Ergebnisse weiter in die Gesellschaft und möglicherweise auch in immer mehr Bereiche eindringen können“, sagte Ekström, Er hat einen Doktortitel in Bibliotheks- und Informationswissenschaft.

Die Forscher hinter der Studie haben bereits festgestellt, dass sich diese problematischen Artikel auf andere Teile der Forschungsinfrastruktur im Internet, in verschiedene Archive, soziale Medien und dergleichen ausgebreitet haben. Die Verbreitung erfolgt schnell und Google Scholar macht die problematischen Artikel sichtbar. Selbst wenn die Artikel zurückgezogen werden, besteht die Gefahr, dass sie bereits Zeit hatten, sich zu verbreiten und dies auch weiterhin tun.

Darüber hinaus bereitet KI-generierte Forschung dem ohnehin schon angeschlagenen Peer-Review-System Probleme.

Stellt höhere Anforderungen an die Informationskompetenz

Die Tatsache, dass sich KI-generierte Forschung in Suchmaschinendatenbanken verbreitet, stellt höhere Anforderungen an diejenigen, die an Online-Recherchen teilnehmen.

„Wenn wir nicht darauf vertrauen können, dass die Forschung, die wir lesen, echt ist, riskieren wir, Entscheidungen auf der Grundlage falscher Informationen zu treffen. Aber so sehr es sich dabei auch um wissenschaftliches Fehlverhalten handelt, ist es eine Frage der Medien- und Informationskompetenz“, sagte Haider, Professor für Bibliotheks- und Informationswissenschaft.

Sie weist darauf hin, dass Google Scholar keine akademische Datenbank ist. Die Suchmaschine ist einfach zu bedienen und schnell, verfügt jedoch nicht über Verfahren zur Qualitätssicherung. Das ist bereits bei regulären Google-Ergebnissen ein Problem, wird aber noch problematischer, wenn es darum geht, Wissenschaft zugänglich zu machen.

„Die Fähigkeit der Menschen zu entscheiden, welche Zeitschriften und Verlage – größtenteils – qualitätsgeprüfte Forschung veröffentlichen, ist wichtig für die Suche und Bestimmung, was zuverlässige Forschung ausmacht, und von großer Bedeutung für die Entscheidungsfindung und Meinungsbildung“, so Haider abschließend.

Weitere Informationen:
Jutta Haider et al., Von GPT erstellte wissenschaftliche Arbeiten auf Google Scholar: Hauptmerkmale, Verbreitung und Implikationen für die Verhinderung von Beweismanipulation, Überprüfung der Fehlinformationen der Harvard Kennedy School (2024). DOI: 10.37016/mr-2020-156

Zur Verfügung gestellt von der Universität Borås

ph-tech