Eine Infografik einer Ratte mit einem absurd großen Penis. Eine andere zeigt menschliche Beine mit viel zu vielen Knochen. Eine Einleitung, die beginnt: „Das ist sicherlich eine mögliche Einleitung für Ihr Thema.“
Dies sind einige der drastischsten Beispiele für den Einsatz künstlicher Intelligenz, die in jüngster Zeit ihren Weg in wissenschaftliche Zeitschriften gefunden haben und ein Licht auf die Welle von KI-generierten Texten und Bildern werfen, die derzeit über die akademische Verlagsbranche hinwegfegt.
Mehrere Experten, die in Studien auf die Spur von Problemen kommen, erklärten gegenüber , der Aufstieg der KI habe die bestehenden Probleme in diesem Multimilliarden-Dollar-Sektor verschärft.
Alle Experten betonten, dass KI-Programme wie ChatGPT ein hilfreiches Werkzeug zum Schreiben oder Übersetzen von Texten sein können – wenn sie gründlich geprüft und offengelegt werden.
Dies war jedoch bei mehreren jüngeren Fällen nicht der Fall, die das Peer-Review irgendwie verpasst hatten.
Anfang des Jahres wurde in den sozialen Medien eine offensichtlich mithilfe künstlicher Intelligenz erstellte Grafik einer Ratte mit unglaublich großen Genitalien weit verbreitet.
Die Studie wurde in einer Zeitschrift des Wissenschaftsriesen Frontiers veröffentlicht, der sie später zurückzog.
Eine andere Studie wurde letzten Monat wegen einer KI-Grafik zurückgezogen, die Beine mit seltsamen, vielgelenkigen Knochen zeigte, die Händen ähnelten.
Bei diesen Beispielen handelt es sich zwar um Bilder, es wird jedoch angenommen, dass ChatGPT, ein im November 2022 eingeführter Chatbot, die Art und Weise, wie Forscher weltweit ihre Ergebnisse präsentieren, am meisten verändert hat.
Eine von Elsevier veröffentlichte Studie machte im März durch ihre Einführung Schlagzeilen. Es handelte sich dabei eindeutig um eine ChatGPT-Eingabeaufforderung mit dem Inhalt: „Hier ist sicherlich eine mögliche Einführung zu Ihrem Thema.“
Solche peinlichen Beispiele seien selten und würden das Peer-Review-Verfahren der renommiertesten Fachzeitschriften wahrscheinlich nicht überstehen, erklärten mehrere Experten gegenüber .
Kippen in Papierfabriken
Es ist nicht immer so einfach, den Einsatz von KI zu erkennen. Ein Hinweis ist jedoch, dass ChatGPT dazu neigt, bestimmte Wörter zu bevorzugen.
Andrew Gray, ein Bibliothekar am University College London, hat Millionen von Dokumenten durchforstet und nach der übermäßigen Verwendung von Wörtern wie „akribisch“, „kompliziert“ oder „lobenswert“ gesucht.
Er kam zu dem Schluss, dass es im Jahr 2023 bei mindestens 60.000 Veröffentlichungen um den Einsatz von KI ging – über ein Prozent der jährlichen Gesamtzahl.
„Für 2024 werden wir sehr deutlich steigende Zahlen sehen“, sagte Gray gegenüber .
Mittlerweile wurden laut der US-Organisation Retraction Watch im vergangenen Jahr mehr als 13.000 wissenschaftliche Arbeiten zurückgezogen – so viele wie nie zuvor.
Künstliche Intelligenz habe es den Bösewichten im wissenschaftlichen Verlagswesen und in der Wissenschaft ermöglicht, die Flut an „Junk“-Artikeln zu industrialisieren, sagte Ivan Oransky, Mitbegründer von Retraction Watch, gegenüber .
Zu diesen Übeltätern zählen unter anderem sogenannte Papierfabriken.
Diese „Betrüger“ verkaufen die Autorenschaft an Forscher und produzieren Unmengen von minderwertigen, plagiierten oder gefälschten Arbeiten, sagt Elisabeth Bik, eine niederländische Forscherin, die auf die Erkennung wissenschaftlicher Bildmanipulationen spezialisiert ist.
Zwei Prozent aller Studien werden schätzungsweise von Papierfabriken veröffentlicht, doch die Rate „explodiert“, da die KI immer mehr Schleusen öffnet, sagte Bik gegenüber .
Dieses Problem wurde deutlich, als der Wissenschaftsverlagsriese Wiley im Jahr 2021 den angeschlagenen Verlag Hindawi kaufte.
Seitdem hat das US-Unternehmen mehr als 11.300 Artikel zu Sonderausgaben von Hindawi zurückgezogen, sagte ein Sprecher von Wiley gegenüber .
Wiley hat jetzt einen „Papierfabrik-Erkennungsdienst“ zur Erkennung von KI-Missbrauch eingeführt – der selbst auf KI basiert.
„Teufelskreis“
Oransky betonte, das Problem liege nicht nur bei den Papierfabriken, sondern in der breiteren akademischen Kultur, die Forscher zum Motto dränge: „Veröffentlichen oder untergehen.“
„Die Verlage haben durch die Schaffung dieser Systeme, die Volumen erfordern, Gewinnspannen von 30 bis 40 Prozent und Milliarden von Dollars an Profit erwirtschaftet“, sagte er.
Die unersättliche Nachfrage nach immer mehr Aufsätzen übe einen erhöhten Druck auf die Akademiker aus, die nach ihren Leistungen bewertet werden, und entwickle einen „Teufelskreis“, sagte er.
Viele haben sich an ChatGPT gewandt, um Zeit zu sparen – was nicht unbedingt eine schlechte Sache ist.
Da fast alle Artikel auf Englisch veröffentlicht werden, können KI-Übersetzungstools laut Bik für Forscher – einschließlich ihr selbst –, deren Muttersprache nicht Englisch ist, von unschätzbarem Wert sein.
Allerdings gibt es auch Befürchtungen, dass Fehler, Erfindungen und unabsichtliche Plagiate der KI das Vertrauen der Gesellschaft in die Wissenschaft zunehmend untergraben könnten.
Ein weiteres Beispiel für den Missbrauch künstlicher Intelligenz ereignete sich letzte Woche, als ein Forscher in einer wissenschaftlichen Zeitschrift eine scheinbar mit ChatGPT umgeschriebene Version einer seiner eigenen Studien entdeckte, die veröffentlicht worden war.
Samuel Payne, Professor für Bioinformatik an der Brigham Young University in den USA, sagte gegenüber , er sei im März gebeten worden, die Studie einem Peer-Review-Verfahren zu unterziehen.
Als ihm klar wurde, dass es sich um „hundertprozentiges Plagiat“ seiner eigenen Studie handelte – der Text allerdings scheinbar von einem KI-Programm umformuliert worden war – lehnte er die Arbeit ab.
Payne sagte, er sei „schockiert“ gewesen, als er herausfand, dass die plagiierte Arbeit einfach woanders veröffentlicht worden war, in einer neuen Wiley-Zeitschrift namens Proteomik.
Es wurde nicht zurückgezogen.
© 2024