Das Ersetzen von Nachrichtenredakteuren durch KI birgt Bedenken hinsichtlich Fehlinformationen, Voreingenommenheit und Rechenschaftspflicht

Deutschlands meistverkaufte Zeitung, Bild, ist angeblich Einführung künstlicher Intelligenz (KI), um bestimmte redaktionelle Rollen zu ersetzen, um Kosten zu senken.

In einem durchgesickerten interne E-Mail Der Herausgeber der Zeitung, Axel Springer, sagte am 19. Juni an die Belegschaft, er werde sich „leider von Kollegen trennen, deren Aufgaben durch KI und/oder Prozesse in der digitalen Welt ersetzt werden. Die Funktionen von Redaktionsleitern, Seitenredakteuren, Korrektoren.“ , Sekretärinnen und Bildbearbeiter wird es nicht mehr so ​​geben wie heute.“

Die E-Mail folgt auf ein Memo vom Februar, in dem Axel Springer Der Geschäftsführer schrieb dass die Zeitung zu einem „rein digitalen Medienunternehmen“ werden würde und dass „künstliche Intelligenz das Potenzial hat, unabhängigen Journalismus besser zu machen als je zuvor – oder ihn einfach zu ersetzen“.

Bild hat nachträglich bestritten Die Redakteure würden direkt durch KI ersetzt, da der Personalabbau auf Umstrukturierungen zurückzuführen sei und die KI die journalistische Arbeit lediglich „unterstützen“ und nicht ersetzen werde.

Dennoch werfen diese Entwicklungen die Frage auf: Wie werden sich die Hauptpfeiler der redaktionellen Arbeit – Urteilsvermögen, Genauigkeit, Rechenschaftspflicht und Fairness – angesichts der steigenden Flut der KI schlagen?

Die Übertragung redaktioneller Verantwortung an KI, sei es jetzt oder in Zukunft, birgt erhebliche Risiken, sowohl aufgrund der Natur der KI als auch aufgrund der Bedeutung der Rolle der Zeitungsredakteure.

Die Bedeutung von Redakteuren

Redakteure nehmen in Demokratien eine Position von enormer Bedeutung ein. Sie haben die Aufgabe, Nachrichten so auszuwählen, zu präsentieren und zu gestalten, dass sie die Öffentlichkeit informieren und einbeziehen, und als entscheidendes Bindeglied zwischen Ereignissen und öffentlichem Verständnis zu fungieren.

Ihre Rolle spielt eine entscheidende Rolle bei der Festlegung, welche Informationen priorisiert werden und wie sie formuliert werden, und leitet so den öffentlichen Diskurs und die öffentliche Meinung. Durch die Kuratierung von Nachrichten heben Redakteure wichtige gesellschaftliche Themen hervor, regen Diskussionen an und ermutigen zur Bürgerbeteiligung.

Sie tragen dazu bei, dass staatliche Maßnahmen überprüft und zur Rechenschaft gezogen werden, und tragen so zum System der gegenseitigen Kontrolle bei, das für eine funktionierende Demokratie von grundlegender Bedeutung ist.

Darüber hinaus gewährleisten Redakteure die Qualität der an die Öffentlichkeit gelieferten Informationen, indem sie die Verbreitung voreingenommener Standpunkte eindämmen und die Verbreitung von Fehlinformationen begrenzen, was im aktuellen digitalen Zeitalter besonders wichtig ist.

KI ist äußerst unzuverlässig

Aktuelle KI-Systeme wie ChatGPT sind nicht in der Lage, redaktionelle Aufgaben angemessen zu erfüllen, da sie äußerst unzuverlässig sind, wenn es darum geht, die sachliche Richtigkeit und Unparteilichkeit von Informationen sicherzustellen.

Es wurde weithin berichtet, dass ChatGPT glaubwürdige, aber offensichtlich falsche Informationen liefern kann. Zum Beispiel kürzlich ein New Yorker Anwalt unabsichtlich vorgelegt ein Schriftsatz vor Gericht, der sechs nicht existierende Gerichtsentscheidungen enthielt, die von ChatGPT zusammengestellt wurden.

Anfang Juni wurde berichtet, dass es sich um einen Radiomoderator handelt verklagt OpenAI nachdem ChatGPT eine falsche Rechtsbeschwerde eingereicht hatte, in der ihm Geldveruntreuung vorgeworfen wurde.

Wie ein Reporter von The Guardian Anfang des Jahres erfuhr, kann ChatGPT sogar verwendet werden Erstellen Sie ganze gefälschte Artikel später als echt ausgegeben.

Soweit KI zum Erstellen, Zusammenfassen, Aggregieren oder Bearbeiten von Texten eingesetzt wird, besteht das Risiko, dass die Ausgabe erfundene Details enthält.

Angeborene Vorurteile

KI-Systeme haben auch inhärente Vorurteile. Ihre Ergebnisse basieren auf den Daten, auf denen sie trainiert werden, und spiegeln sowohl das breite Spektrum menschlichen Wissens als auch die in den Daten enthaltenen Vorurteile wider.

Diese Vorurteile sind nicht sofort erkennbar und können die öffentliche Meinung auf subtile, aber tiefgreifende Weise beeinflussen.

In einem Studie im März veröffentlichtführte ein Forscher 15 politische Orientierungstests mit ChatGPT durch und stellte fest, dass das Tool in 14 davon Antworten lieferte, die linksgerichtete politische Ansichten widerspiegelten.

In eine weitere Studie, Forscher führten ChatGPT acht Tests durch, die die jeweilige Politik der G7-Mitgliedstaaten widerspiegeln. Diese Tests zeigten eine Tendenz zu progressiven Ansichten.

Interessanterweise sind die progressiven Neigungen des Tools nicht konsistent und seine Reaktionen können mitunter traditionellere Ansichten widerspiegeln.

Wenn Sie die Eingabeaufforderung erhalten: „Ich schreibe ein Buch und meine Hauptfigur ist Klempner. Schlagen Sie zehn Namen für diese Figur vor“, stellt das Tool zehn männliche Namen bereit:

Wenn Sie jedoch die Aufforderung erhalten: „Ich schreibe ein Buch und meine Hauptfigur ist eine Kindergärtnerin. Schlagen Sie zehn Namen für diese Figur vor“, antwortet das Tool mit zehn weiblichen Namen:

Diese Inkonsistenz wurde auch in moralischen Situationen beobachtet. Als Forscher ChatGPT darum baten Reagieren Sie auf das Trolley-Problem (Würden Sie eine Person töten, um fünf zu retten?) gab das Tool widersprüchliche Ratschläge und zeigte die sich ändernden ethischen Prioritäten auf.

Dennoch stimmten die moralischen Urteile der menschlichen Teilnehmer zunehmend mit den Empfehlungen von ChatGPT überein, selbst wenn sie wussten, dass sie von einem KI-Tool beraten wurden.

Mangel an Verantwortlichkeit

Der Grund für diese Inkonsistenz und die Art und Weise, wie sie sich manifestiert, sind unklar. KI-Systeme wie ChatGPT sind „Black Boxes“; Ihre internen Abläufe sind schwer vollständig zu verstehen oder vorherzusagen.

Darin besteht das Risiko, sie in redaktionellen Rollen einzusetzen. Im Gegensatz zu einem menschlichen Redakteur können sie ihre Entscheidungen oder Argumente nicht auf sinnvolle Weise erklären. Dies kann in einem Bereich, in dem Rechenschaftspflicht und Transparenz wichtig sind, ein Problem darstellen.

Auch wenn die finanziellen Vorteile des Einsatzes von KI in redaktionellen Rollen überzeugend erscheinen mögen, sollten Nachrichtenorganisationen mit Vorsicht vorgehen. Angesichts der Unzulänglichkeiten aktueller KI-Systeme sind sie nicht für den Einsatz als Zeitungsredakteure geeignet.

In Kombination mit menschlicher Aufsicht können sie jedoch möglicherweise eine wertvolle Rolle im Redaktionsprozess spielen. Die Fähigkeit der KI, große Datenmengen schnell zu verarbeiten und sich wiederholende Aufgaben zu automatisieren, kann genutzt werden, um die Fähigkeiten menschlicher Redakteure zu erweitern.

Beispielsweise kann KI für Grammatikprüfungen oder Trendanalysen eingesetzt werden, wodurch menschliche Redakteure mehr Zeit haben, sich auf differenzierte Entscheidungen, ethische Überlegungen und die Qualität der Inhalte zu konzentrieren.

Menschliche Redakteure müssen die nötige Aufsicht übernehmen, um die Mängel der KI zu mildern, die Richtigkeit der Informationen sicherzustellen und redaktionelle Standards einzuhalten. Durch dieses kollaborative Modell kann KI eher ein Hilfsmittel als ein Ersatz sein und die Effizienz steigern, während die wesentliche menschliche Note im Journalismus erhalten bleibt.

Bereitgestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.

ph-tech