Große Sprachmodelle stellen ein Risiko für die Gesellschaft dar und müssen strenger reguliert werden, sagen Forscher

Führende Experten für Regulierung und Ethik am Oxford Internet Institute haben eine neue Art von Schaden identifiziert, der durch LLMs entsteht. Sie sind der Ansicht, dass diese langfristige Risiken für demokratische Gesellschaften darstellen und durch die Schaffung einer neuen gesetzlichen Verpflichtung für LLM-Anbieter angegangen werden müssen.

In ihrem Aufsatz „Besteht bei großen Sprachmodellen die gesetzliche Pflicht, die Wahrheit zu sagen?“ veröffentlicht durch die Offene Wissenschaft der Royal SocietyIn ihrem Buch „The LL.M.“ legen die Oxford-Forscher dar, wie LLMs Antworten produzieren, die plausibel, hilfreich und selbstbewusst sind, aber sachliche Ungenauigkeiten, irreführende Hinweise und verzerrte Informationen enthalten. Sie bezeichnen dieses problematische Phänomen als „unvorsichtige Rede“, die ihrer Meinung nach Wissenschaft, Bildung und Gesellschaft langfristig schadet.

Die Hauptautorin, Professorin Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute, sagt: „LLMs stellen ein einzigartiges Risiko für Wissenschaft, Bildung, Demokratie und Gesellschaft dar, das in den derzeitigen rechtlichen Rahmenbedingungen nicht berücksichtigt wurde. Dies ist das, was wir ‚unvorsichtige Rede‘ nennen oder eine Rede, der die angemessene Sorgfalt gegenüber der Wahrheit fehlt.“

„Die Verbreitung unbedachter Äußerungen verursacht subtile, immaterielle Schäden, die sich im Laufe der Zeit nur schwer messen lassen. Sie führt zur Erosion von Wahrheit, Wissen und gemeinsamer Geschichte und kann schwerwiegende Folgen für eine evidenzbasierte Politikgestaltung in Bereichen haben, in denen es auf Details und Wahrheit ankommt, wie etwa im Gesundheitswesen, im Finanzwesen, beim Klimawandel, in den Medien, im Rechtswesen und in der Bildung.

„In unserem neuen Papier wollen wir diese Lücke schließen, indem wir die Machbarkeit der Schaffung einer neuen gesetzlichen Verpflichtung analysieren, die LLM-Anbieter dazu verpflichtet, KI-Modelle zu erstellen, die, vereinfacht ausgedrückt, ‚die Wahrheit sagen‘.“

Dieses Phänomen der „unbedachten Rede“ wird noch komplizierter durch menschliches Feedback, das oft Ergebnisse bevorzugt, die mit den persönlichen Vorurteilen übereinstimmen, und durch Anmerkungen, die Modelle darauf trainieren, „selbstbewusst klingende Ergebnisse“ zu erzeugen – neben anderen Faktoren, die nichts mit der Förderung wahrheitsgetreuer Ergebnisse zu tun haben.

Dr. Chris Russell, außerordentlicher Professor und wissenschaftlicher Mitarbeiter am Oxford Internet Institute, sagte: „LLMs sind zwar so aufgebaut, dass ihre Verwendung sich wie ein Gespräch mit einem ehrlichen und präzisen Assistenten anfühlt, aber die Ähnlichkeit ist nur oberflächlich und diese Modelle sind nicht darauf ausgelegt, wahrheitsgetreue oder zuverlässige Antworten zu geben. Die scheinbare Wahrhaftigkeit der Ergebnisse ist ein ‚glücklicher statistischer Zufall‘, auf den man sich nicht verlassen kann.“

Um die rechtlichen Einschränkungen bei der Nutzung von LL.M. besser zu verstehen, führten die Forscher eine umfassende Analyse durch und bewerteten das Vorhandensein von Wahrheitspflichten in den geltenden Rechtsrahmen wie dem Artificial Intelligence Act, dem Digital Services Act, der Produkthaftungsrichtlinie und der Artificial Intelligence Liability Directive.

Sie stellen fest, dass die geltenden gesetzlichen Verpflichtungen eher auf bestimmte Branchen, Berufsgruppen oder staatliche Institutionen beschränkt sind und selten für den privaten Sektor gelten.

Der Forschungsleiter und außerordentliche Professor Brent Mittelstadt kommentierte die Ergebnisse wie folgt: „Die bestehenden Regelungen bieten nur schwache Kontrollmechanismen zur Eindämmung unvorsichtiger Äußerungen und sind auf LLM-Anbieter nur in einer sehr begrenzten Anzahl von Fällen anwendbar.“

„Trotzdem legen Unternehmen in ihren Versuchen, ‚Halluzinationen‘ in LLMs zu eliminieren, erhebliche Leitplanken und Beschränkungen für diese Modelle fest. Dies birgt ein erhebliches Risiko einer weiteren Zentralisierung der Macht in einigen wenigen großen Technologieunternehmen, die darüber entscheiden, welche Themen angemessen oder tabu sind, welche Informationsquellen zuverlässig sind und letztendlich, was wahr ist.“

Die Oxford-Wissenschaftler argumentieren, dass LLM-Anbieter ihre Modelle durch offene, demokratische Prozesse besser an der Wahrheit ausrichten sollten. Sie schlagen vor, LLM-Anbieter gesetzlich dazu zu verpflichten, Modelle zu entwickeln, die die Wahrhaftigkeit der Ergebnisse über andere Faktoren wie Überzeugungskraft, Nützlichkeit oder Rentabilität stellen.

Dies würde unter anderem bedeuten, dass sie offen über die von ihnen verwendeten Trainingsdaten und die Beschränkungen ihrer Modelle sprechen, dass sie erklären, wie sie die Modelle durch Praktiken wie bestärkendes Lernen auf der Grundlage von menschlichem Feedback oder Eingabeaufforderungsbeschränkungen optimieren, und dass sie in die Ergebnisse Funktionen zur Faktenprüfung und Vertrauensbewertung einbauen.

Professor Wachter kommt zu dem Schluss: „Die derzeitigen staatlichen Anreize konzentrieren sich eher darauf, die Haftung von Entwicklern und Betreibern zu verringern und den Gewinn zu maximieren, als die Technologie wahrheitsgetreuer zu machen. Unser vorgeschlagener Ansatz zielt darauf ab, das Risiko unvorsichtiger Äußerungen und langfristiger negativer gesellschaftlicher Auswirkungen zu minimieren und gleichzeitig die Entwicklung in Richtung einer öffentlichen Verwaltung der Wahrheit in LLMs umzulenken.“

Weitere Informationen:
Sandra Wachter et al.: Besteht bei großen Sprachmodellen eine gesetzliche Pflicht, die Wahrheit zu sagen? Offene Wissenschaft der Royal Society (2024). DOI: 10.1098/rsos.240197

Zur Verfügung gestellt von der University of Oxford

ph-tech