OpenAI finanziert Forschung zur „KI-Moral“

OpenAI finanziert akademische Forschung zu Algorithmen, die moralische Urteile von Menschen vorhersagen können.

In einer Einreichung beim IRS gab OpenAI Inc., die gemeinnützige Organisation von OpenAI, bekannt, dass sie Forschern der Duke University einen Zuschuss für ein Projekt mit dem Titel „Research AI Morality“ gewährt hat. Ein OpenAI-Sprecher, der um einen Kommentar gebeten wurde, verwies auf a Pressemitteilung Dies weist darauf hin, dass die Auszeichnung Teil eines größeren, dreijährigen Stipendiums in Höhe von 1 Million US-Dollar für Duke-Professoren ist, die studieren „moralische KI machen.“

Über diese „Moral“-Forschung, die OpenAI finanziert, ist wenig öffentlich, außer der Tatsache, dass die Förderung im Jahr 2025 endet. Der Hauptforscher der Studie, Walter Sinnott-Armstrong, Professor für praktische Ethik an der Duke University, teilte Tech per E-Mail mit, dass er dies „nicht tun wird“. über die Arbeit sprechen können.

Sinnott-Armstrong und die Co-Ermittlerin des Projekts, Jana Borg, haben mehrere Studien erstellt – und eine Buch – über das Potenzial von KI, als „moralisches GPS“ zu dienen, um Menschen dabei zu helfen, bessere Urteile zu fällen. Als Teil größerer Teams haben sie es getan erstellt ein „moralisch ausgerichteter“ Algorithmus, der bei der Entscheidung hilft, wer Nierenspenden erhält, und studiert In welchen Szenarien würden Menschen es vorziehen, wenn KI moralische Entscheidungen treffen würde?

Der Pressemitteilung zufolge besteht das Ziel der von OpenAI finanzierten Arbeit darin, Algorithmen zu trainieren, um „menschliche moralische Urteile“ in Szenarien vorherzusagen, die Konflikte „zwischen moralisch relevanten Merkmalen in Medizin, Recht und Wirtschaft“ beinhalten.

Aber es ist alles andere als klar, dass ein so nuanciertes Konzept wie Moral für die heutige Technologie erreichbar ist.

Im Jahr 2021 entwickelte das gemeinnützige Allen Institute for AI ein Tool namens Ask Delphi, das ethisch fundierte Empfehlungen geben sollte. Es beurteilte grundlegende moralische Dilemmata gut genug – der Bot „wusste“, dass es beispielsweise falsch war, bei einer Prüfung zu schummeln. Aber ein leichtes Umformulieren und Umformulieren der Fragen reichte aus, um Delphi dazu zu bringen, so ziemlich alles zu genehmigen, auch Kleinkinder ersticken.

Der Grund liegt in der Funktionsweise moderner KI-Systeme.

Modelle des maschinellen Lernens sind statistische Maschinen. Anhand vieler Beispiele aus dem gesamten Internet lernen sie die Muster in diesen Beispielen, um Vorhersagen zu treffen, wie zum Beispiel, dass die Formulierung „an wen“ oft vor „es könnte angehen“ steht.

KI hat kein Verständnis für ethische Konzepte und hat auch kein Gespür für die Argumentation und Emotionen, die bei der moralischen Entscheidungsfindung eine Rolle spielen. Aus diesem Grund neigt die KI dazu, die Werte westlicher, gebildeter und industrialisierter Nationen nachzuplappern – das Internet und damit auch die Trainingsdaten der KI werden von Artikeln dominiert, die diese Standpunkte unterstützen.

Es überrascht nicht, dass die Werte vieler Menschen nicht in den Antworten der KI zum Ausdruck kommen, insbesondere wenn diese Menschen nicht durch Online-Posts zu den Trainingssätzen der KI beitragen. Und die KI verinnerlicht eine Reihe von Vorurteilen, die über die westliche Ausrichtung hinausgehen. Delphi sagte dass es „moralisch akzeptabler“ ist, hetero zu sein als schwul zu sein.

Die Herausforderung für OpenAI – und die Forscher, die es unterstützt – wird durch die inhärente Subjektivität der Moral noch schwieriger. Philosophen diskutieren seit Tausenden von Jahren über die Vorzüge verschiedener ethischer Theorien, und es ist kein allgemeingültiger Rahmen in Sicht.

Claude bevorzugt Kantianismus (dh Konzentration auf absolute moralische Regeln), während ChatGPT eher dazu tendiert ganz und gar utilitaristisch (Priorisierung des größten Wohls für die größtmögliche Anzahl von Menschen). Ist das eine dem anderen überlegen? Es kommt darauf an, wen Sie fragen.

Ein Algorithmus zur Vorhersage menschlicher moralischer Urteile muss all dies berücksichtigen. Das ist eine sehr hohe Hürde, die es zu überwinden gilt – vorausgesetzt, ein solcher Algorithmus ist überhaupt möglich.

tch-1-tech