Der KI-Chatbot Bard des Technologieriesen ist bereits dafür berüchtigt, falsche Informationen als Fakten darzustellen
Google testet ein KI-gestütztes Journalismusprodukt und stellt es großen Nachrichtenorganisationen vor, berichtete die New York Times am Donnerstag unter Berufung auf drei mit der Angelegenheit vertraute Quellen. Die Times war angeblich eines der von Google angesprochenen Medienunternehmen. Das intern als Genesis bekannte Tool ist in der Lage, Nachrichten auf der Grundlage von Benutzereingaben zu generieren – Details zu aktuellen Ereignissen wie „Wer, Was, Wo oder Wann“, so die Quellen. Das Unternehmen betrachtet es angeblich als „verantwortungsvolle Technologie“ – einen Mittelweg für Nachrichtenorganisationen, die nicht daran interessiert sind, ihr menschliches Personal durch generative KI zu ersetzen. Zusätzlich zum Kriechfaktor – zwei Führungskräfte, die den Pitch von Google sahen, nannten ihn Berichten zufolge „beunruhigend“ – störte Genesis‘ mechanisierter Ansatz beim Geschichtenerzählen einige Journalisten. Zwei Insider sagten der Times, es scheine eine Selbstverständlichkeit zu sein, über das erforderliche Talent zu verfügen, um Nachrichten zu verfassen, die nicht nur korrekt, sondern auch gut geschrieben seien. Eine Sprecherin von Google betonte, Genesis sei „nicht dazu gedacht, die wesentliche Rolle von Journalisten bei der Berichterstattung, Erstellung und Überprüfung ihrer Artikel zu ersetzen“, sondern könne stattdessen Optionen für Schlagzeilen und andere Schreibstile anbieten. Einer Quelle zufolge betrachtete Google Genesis eher als einen „persönlichen Assistenten für Journalisten“, der Routineaufgaben automatisieren kann, sodass sich der Autor auf anspruchsvollere Aufgaben wie die Befragung von Themen und die Berichterstattung vor Ort konzentrieren kann. Die Entdeckung, dass Google an einem „ChatGPT für Journalismus“ arbeitete, löste weit verbreitete Bedenken aus, dass Genesis eine Büchse der Pandora mit gefälschten Nachrichten öffnen könnte. Googles KI-Chatbot Bard wurde nach seiner Einführung Anfang des Jahres schnell dafür berüchtigt, komplexe Unwahrheiten zu verbreiten und sie als Wahrheit darzustellen, und CEO Sundar Pichai hat zugegeben, dass diese „Halluzinationen“ zwar bei großen KI-Sprachmodellen endemisch zu sein scheinen, aber niemand weiß, was sie verursacht oder wie man eine KI ehrlich hält. Schlimmer noch, Genesis könnte echte Nachrichten an den Rand drängen, wenn Google seine Einführung dadurch fördert, dass es seine Suchalgorithmen optimiert, um KI-generierte Inhalte zu priorisieren, twitterte Radioredakteur Gabe Rosenberg als Reaktion auf den Artikel der New York Times. Mehrere bekannte Nachrichtenagenturen haben sich mit dem Einsatz von KI in der Nachrichtenredaktion versucht, mit wenig inspirierenden Ergebnissen. BuzzFeed nutzte KI nicht mehr zur Generierung maßgeschneiderter Quizze, sondern produzierte Dutzende formelhafter Reiseartikel und kündigte an, dass alle Inhalte in weniger als sechs Monaten KI-generiert werden würden, obwohl es seinen Autoren bereits im Januar versprochen hatte, dass ihre Arbeitsplätze sicher seien. CNET wurde Anfang dieses Jahres dabei erwischt, wie es KI-geschriebene Artikel als menschlichen Inhalt ausgab und KI nutzte, um alte Artikel neu zu schreiben, um ihre Suchmaschinen-Rankings künstlich zu verbessern. Trotz dieser Katastrophen hat OpenAI, das für ChatGPT verantwortliche Unternehmen, kürzlich damit begonnen, Verträge mit großen Nachrichtenorganisationen wie Associated Press zu unterzeichnen, um die Einführung der Technologie in der Nachrichtenredaktion zu fördern.
: