Da immer mehr Verlage Content-Lizenzverträge mit dem ChatGPT-Hersteller OpenAI kündigen, a Studie Diese Woche veröffentlicht von der Zweites Zentrum für digitalen Journalismus – wenn man sich anschaut, wie der KI-Chatbot Zitate (also Quellen) für die Inhalte von Verlagen erzeugt – sorgt das für eine interessante, oder, nun ja, besorgniserregende Lektüre.
Kurz gesagt: Die Ergebnisse deuten darauf hin, dass Verlage weiterhin der Tendenz des generativen KI-Tools ausgeliefert sind, Informationen zu erfinden oder auf andere Weise falsch darzustellen, unabhängig davon, ob sie OpenAI erlauben, ihre Inhalte zu crawlen oder nicht.
Die an der Columbia Journalism School durchgeführte Studie untersuchte Zitate, die von ChatGPT erstellt wurden, nachdem das Unternehmen gebeten wurde, die Quelle von Beispielzitaten zu ermitteln, die aus einer Mischung von Verlagen stammten – von denen einige Verträge mit OpenAI unterzeichnet hatten und andere nicht.
Das Zentrum entnahm Blockzitate aus jeweils 10 Artikeln, die von insgesamt 20 zufällig ausgewählten Verlagen produziert wurden (also insgesamt 200 verschiedene Zitate) – darunter Inhalte von der New York Times (die derzeit OpenAI wegen Urheberrechtsklage verklagt); Die Washington Post (die nicht mit dem ChatGPT-Hersteller verbunden ist); The Financial Times (die einen Lizenzvertrag unterzeichnet hat); und andere.
„Wir wählten Zitate aus, die, wenn sie in Google oder Bing eingefügt würden, den Quellartikel unter die ersten drei Ergebnisse bringen würden, und bewerteten, ob das neue Suchtool von OpenAI den Artikel, der die Quelle jedes Zitats war, korrekt identifizieren würde“, schrieben die Tow-Forscher Klaudia Jaźwińska und Aisvarya Chandrasekar in einem Blogbeitrag ihren Ansatz erläutern und ihre Ergebnisse zusammenfassen.
„Was wir herausgefunden haben, war für Nachrichtenverleger nicht vielversprechend“, fahren sie fort. „Obwohl OpenAI seine Fähigkeit hervorhebt, Benutzern zeitnahe Antworten mit Links zu relevanten Webquellen zu bieten, übernimmt das Unternehmen keine ausdrückliche Verpflichtung, die Richtigkeit dieser Zitate sicherzustellen. Dies ist ein bemerkenswertes Versäumnis für Verlage, die erwarten, dass auf ihre Inhalte verwiesen und diese getreu wiedergegeben werden.“
„Unsere Tests ergaben, dass kein Herausgeber – unabhängig vom Grad der Zugehörigkeit zu OpenAI – von ungenauen Darstellungen seiner Inhalte in ChatGPT verschont blieb“, fügten sie hinzu.
Unzuverlässige Beschaffung
Die Forscher sagten, sie hätten „zahlreiche“ Fälle gefunden, in denen die Inhalte von Herausgebern von ChatGPT ungenau zitiert wurden – und dabei auch „ein Spektrum an Genauigkeit in den Antworten“ festgestellt. Während sie also „einige“ völlig korrekte Zitate fanden (dh ChatGPT gab den Herausgeber, das Datum und die URL des mit ihr geteilten Blockzitats korrekt zurück), gab es „viele“ Zitate, die völlig falsch waren; und „einige“, die irgendwo dazwischen lagen.
Kurz gesagt, die Zitate von ChatGPT scheinen eine unzuverlässige Mischung zu sein. Die Forscher fanden auch nur sehr wenige Fälle, in denen der Chatbot kein völliges Vertrauen in seine (falschen) Antworten ausstrahlte.
Einige der Zitate stammen von Herausgebern, die die Suchcrawler von OpenAI aktiv blockiert haben. In diesen Fällen gingen die Forscher davon aus, dass es Probleme bei der Erstellung korrekter Zitate geben würde. Sie stellten jedoch fest, dass dieses Szenario ein weiteres Problem aufwirft – da der Bot „selten“ zugab, keine Antwort liefern zu können. Stattdessen wurde auf Konfabulation zurückgegriffen, um eine gewisse Beschaffung (wenn auch eine falsche Beschaffung) zu generieren.
„Insgesamt gab ChatGPT bei 153 Gelegenheiten teilweise oder vollständig falsche Antworten zurück, bestätigte jedoch nur sieben Mal, dass es nicht möglich war, genau auf eine Anfrage zu antworten“, so die Forscher. „Nur in diesen sieben Ausgaben verwendete der Chatbot qualifizierende Wörter und Ausdrücke wie ‚erscheint‘, ‚es ist möglich‘ oder ‚könnte‘ oder Aussagen wie ‚Ich konnte den genauen Artikel nicht finden‘.“
Sie vergleichen diese unglückliche Situation mit einer normalen Internetsuche, bei der eine Suchmaschine wie Google oder Bing normalerweise entweder ein genaues Angebot findet und den Benutzer auf die Website(s) verweist, auf der er es gefunden hat, oder angibt, dass sie keine Ergebnisse mit einer genauen Übereinstimmung gefunden haben .
„Die mangelnde Transparenz von ChatGPT hinsichtlich des Vertrauens in eine Antwort kann es für Benutzer schwierig machen, die Gültigkeit einer Behauptung zu beurteilen und zu verstehen, welchen Teilen einer Antwort sie vertrauen können und welchen nicht“, argumentieren sie.
Für Verlage könnten aus falschen Zitierungen auch Reputationsrisiken resultieren, sowie das kommerzielle Risiko, dass Leser auf andere Seiten verwiesen werden.
Dekontextualisierte Daten
Die Studie beleuchtet auch ein weiteres Problem. Es deutet darauf hin, dass ChatGPT im Wesentlichen ein belohnendes Plagiat sein könnte. Die Forscher berichten von einem Fall, in dem ChatGPT fälschlicherweise eine Website als Quelle der NYT-Geschichte zitierte, die ein Stück des „ausführlich berichteten“ New York Times-Journalismus plagiiert hatte, d , hat der Bot möglicherweise diese falsche Antwort generiert, um eine Informationslücke zu schließen, die dadurch entstanden ist, dass er die Website der NYT nicht crawlen konnte.
„Dies wirft ernsthafte Fragen zur Fähigkeit von OpenAI auf, die Qualität und Authentizität seiner Datenquellen zu filtern und zu validieren, insbesondere wenn es um nicht lizenzierte oder plagiierte Inhalte geht“, schlagen sie vor.
In weiteren Erkenntnissen, die für Verlage, die Verträge mit OpenAI abgeschlossen haben, wahrscheinlich besorgniserregend sein dürften, stellte die Studie fest, dass die Zitate von ChatGPT in ihren Fällen ebenfalls nicht immer zuverlässig waren – die Einbeziehung der Crawler scheint also auch keine Garantie für Genauigkeit zu sein.
Die Forscher argumentieren, dass das grundlegende Problem darin besteht, dass die Technologie von OpenAI Journalismus „als dekontextualisierten Inhalt“ behandelt und dabei offenbar wenig Rücksicht auf die Umstände seiner ursprünglichen Produktion nimmt.
Ein weiteres Problem, auf das die Studie hinweist, sind die unterschiedlichen Antworten von ChatGPT. Die Forscher stellten dem Bot mehrmals dieselbe Frage und stellten fest, dass er „normalerweise jedes Mal eine andere Antwort zurückgab“. Das ist zwar typisch für GenAI-Tools, im Zitierkontext ist eine solche Inkonsistenz jedoch offensichtlich nicht optimal, wenn es um Genauigkeit geht.
Obwohl es sich bei der Tow-Studie um einen kleinen Maßstab handelt – die Forscher räumen ein, dass „strengere“ Tests erforderlich sind – ist sie angesichts der hochrangigen Deals, die große Verlage gerade mit OpenAI abschließen, dennoch bemerkenswert.
Wenn Medienunternehmen gehofft hätten, dass diese Vereinbarungen zu einer Sonderbehandlung ihrer Inhalte gegenüber der Konkurrenz führen würden, zumindest im Hinblick auf die Erstellung einer korrekten Beschaffung, deutet diese Studie darauf hin, dass OpenAI noch keine solche Konsistenz bieten kann.
Zwar Verlage, die keine Lizenzverträge haben, aber auch nicht haben die Crawler von OpenAI komplett blockiert – vielleicht in der Hoffnung, zumindest etwas Traffic zu gewinnen, wenn ChatGPT Inhalte zu ihren Geschichten zurückgibt –, die Studie ist ebenfalls düster zu lesen, da die Zitate in ihren Fällen möglicherweise auch nicht korrekt sind.
Mit anderen Worten: Es gibt keine garantierte „Sichtbarkeit“ für Herausgeber in der Suchmaschine von OpenAI, selbst wenn sie deren Crawler zulassen.
Das vollständige Blockieren von Crawlern bedeutet auch nicht, dass Publisher sich vor Reputationsschäden schützen können, indem sie jegliche Erwähnung ihrer Geschichten in ChatGPT vermeiden. Die Studie ergab, dass der Bot beispielsweise trotz der laufenden Klage immer noch fälschlicherweise Artikel der New York Times zuordnete.
„Wenig bedeutungsvolle Agentur“
Die Forscher kommen zu dem Schluss, dass Verlage derzeit „wenig bedeutungsvolle Entscheidungsfreiheit“ darüber haben, was mit ihren Inhalten passiert, wenn ChatGPT sie in die Hände bekommt (direkt oder, nun ja, indirekt).
Der Blogbeitrag enthält eine Antwort von OpenAI auf die Forschungsergebnisse – in der den Forschern vorgeworfen wird, einen „atypischen Test unseres Produkts“ durchgeführt zu haben.
„Wir unterstützen Verleger und Ersteller, indem wir 250 Millionen wöchentlichen ChatGPT-Benutzern dabei helfen, hochwertige Inhalte durch Zusammenfassungen, Zitate, klare Links und Namensnennung zu entdecken“, teilte ihnen OpenAI ebenfalls mit und fügte hinzu: „Wir haben mit Partnern zusammengearbeitet, um die Genauigkeit der Inline-Zitate zu verbessern und.“ Respektieren Sie die Präferenzen der Herausgeber und aktivieren Sie unter anderem, wie sie in der Suche angezeigt werden, indem Sie OAI-SearchBot in ihrer robots.txt-Datei verwalten. Wir werden die Suchergebnisse weiter verbessern.“