Wie KI-generierte Inhalte die Arbeitsbelastung für Wikipedia-Redakteure erhöhen

Da KI-generierter Slop dank des Aufkommens großer Sprachmodelle (LLMs) wie OpenAIs GPT immer größere Teile des benutzergenerierten Internets übernimmt, sollten Wikipedia-Redakteure darüber nachdenken. Zusätzlich zu ihrer üblichen Aufgabe, fehlerhafte menschliche Bearbeitungen zu beseitigen, müssen sie einen zunehmenden Teil ihrer Zeit damit verbringen, KI-Füller auszusortieren.

404 Medien hat mit Ilyas Lebleu gesprochen, einem Redakteur der Crowdsourcing-Enzyklopädie, der an der Gründung der „WikiProject KI-Bereinigung„Projekt. Die Gruppe versucht, Best Practices zur Erkennung maschinell generierter Beiträge zu entwickeln. (Und nein, bevor Sie fragen: KI ist dafür nutzlos.)

Ein besonderes Problem bei KI-generierten Inhalten besteht in diesem Zusammenhang darin, dass sie fast immer aus falschen Quellen stammen. Die Fähigkeit von LLMs, sofort Unmengen plausibel klingender Texte zu produzieren, hat sogar dazu geführt, dass ganze gefälschte Einträge hochgeladen wurden, um Falschmeldungen an den menschlichen Wikipedia-Experten vorbei zu schleichen.

tch-1-tech