Eines der führenden Wissenschaftsmagazine Australiens geriet am Donnerstag in die Kritik, nachdem es mithilfe künstlicher Intelligenz erstellte Artikel veröffentlicht hatte, die nach Ansicht von Experten falsch oder zu stark vereinfacht waren.
Cosmos, herausgegeben von der staatlich geförderten australischen Wissenschaftsagentur, nutzte GPT-4 von Open AI, um sechs Artikel zu erstellen, die letzten Monat veröffentlicht wurden.
Obwohl der Einsatz künstlicher Intelligenz offengelegt wurde, erklärte die Science Journalists Association of Australia, dass ihr Einsatz zu ernsthaften Bedenken geführt habe.
Der Präsident der Vereinigung, Jackson Ryan, erklärte gegenüber , dass die Beschreibungen wissenschaftlicher Prozesse in dem von künstlicher Intelligenz erstellten Cosmos-Artikel „Was passiert mit unserem Körper nach dem Tod?“ falsch oder stark vereinfacht seien.
In einem Beispiel schrieb der KI-Dienst, dass die Totenstarre drei bis vier Stunden nach dem Tod einsetzt. Ryan sagte, wissenschaftliche Untersuchungen hätten gezeigt, dass der Zeitpunkt weniger eindeutig sei.
Ein weiteres Beispiel war die Beschreibung der Autolyse – ein Prozess, bei dem Zellen durch ihre Enzyme zerstört werden –, die in dem Artikel als „Selbstzerstörung“ bezeichnet wurde.
Ryan sagte, dies sei eine schlechte Beschreibung des Prozesses.
Er sagte, diese Ungenauigkeiten würden das Vertrauen der Menschen in die Veröffentlichung und ihre Wahrnehmung generell schädigen.
Ein Sprecher der nationalen Wissenschaftsbehörde sagte, der KI-Inhalt sei von einem „ausgebildeten Wissenschaftskommunikator auf Fakten geprüft und vom Cosmos-Verlagsteam redigiert“ worden.
Cosmos werde die Nutzung des KI-Dienstes während des gesamten Experiments weiterhin überprüfen, sagte der Sprecher.
Das Magazin wurde außerdem dafür kritisiert, dass es ein Journalistenstipendium zur Entwicklung seiner künstlichen Intelligenz nutzte, was auf Kosten der Journalisten gehen könnte.
Die ehemalige Herausgeberin von Cosmos, Gail MacCallum, sagte dem australischen Sender ABC, dass sie zwar eine „große Befürworterin der Erforschung künstlicher Intelligenz“ sei, die Erstellung von Artikeln durch KI jedoch „nicht meine Komfortzone“ sei.
Ein anderer ehemaliger Redakteur, Ian Connellan, sagte gegenüber ABC, er sei nicht über das KI-Projekt informiert worden und hätte es, wenn er es gewesen wäre, als „schlechte Idee“ bezeichnet.
Der Einsatz künstlicher Intelligenz entwickelt sich für Verleger und Musiker zu einem großen Streitthema.
Die New York Times hat den ChatGPT-Hersteller OpenAI und Microsoft kürzlich vor einem US-Gericht verklagt und behauptet, die leistungsstarken KI-Modelle der Unternehmen hätten Millionen von Artikeln ohne Erlaubnis zum Training verwendet.
Die aufstrebenden Giganten der künstlichen Intelligenz sehen sich mit einer Welle von Klagen konfrontiert, weil sie Internetinhalte nutzen, um Systeme zu entwickeln, die auf einfache Aufforderung hin Inhalte erstellen.
© 2024