Der milliardenschwere Zusammenbruch von FTX – der hochkarätigen Kryptowährungsbörse, deren Gründer jetzt ist wartet auf den Prozess wegen Betrugsvorwürfen– erinnert deutlich an die Gefahren der Täuschung in der Finanzwelt.
Die Lügen des FTX-Gründers Sam Bankman-Fried gehen auf zurück die Anfänge des Unternehmens, sagen Staatsanwälte. Dabei soll er sowohl Kunden als auch Investoren belogen haben US-Staatsanwalt Damian Williams hat angerufen „einer der größten Finanzbetrugsfälle in der amerikanischen Geschichte.“
Wie wurden offenbar so viele Menschen getäuscht?
Eine neue Studie in der Zeitschrift für strategisches Management bringt etwas Licht ins Dunkel. Darin fanden meine Kollegen und ich das selbst professionelle Finanzanalysten Fallen Sie auf CEO-Lügen herein– und dass die angesehensten Analysten möglicherweise die leichtgläubigsten sind.
Finanzanalysten geben fachkundige Ratschläge, um Unternehmen und Investoren dabei zu helfen, Geld zu verdienen. Sie sagen voraus, wie viel ein Unternehmen verdienen wird, und schlagen vor, ob seine Aktien gekauft oder verkauft werden sollen. Indem sie Geld in gute Investitionen lenken, tragen sie nicht nur zum Wachstum einzelner Unternehmen, sondern der gesamten Wirtschaft bei.
Doch obwohl Finanzanalysten für ihre Ratschläge bezahlt werden, sind sie keine Orakel. Als ein ManagementprofessorIch habe mich gefragt, wie oft sie von lügnerischen Führungskräften getäuscht werden – also nutzten meine Kollegen und ich maschinelles Lernen, um das herauszufinden. Wir haben einen Algorithmus entwickelt, der auf den S&P 1500-Gewinnaufrufprotokollen von 2008 bis 2016 trainiert wurde Täuschungen zuverlässig erkennen 84 % der Zeit. Insbesondere identifiziert der Algorithmus unterschiedliche sprachliche Muster, die auftreten, wenn eine Person lügt.
Unsere Ergebnisse waren beeindruckend. Wir haben herausgefunden, dass die Wahrscheinlichkeit, dass Analysten „Kauf“- oder „starke Kauf“-Empfehlungen aussprechen, nachdem sie betrügerischen CEOs zugehört haben, im Durchschnitt um fast 28 Prozentpunkte weitaus größer ist als bei ihren ehrlicheren Kollegen.
Wir haben auch herausgefunden, dass hoch angesehene Analysten häufiger auf CEO-Lügen hereinfielen als ihre weniger bekannten Kollegen. Tatsächlich war die Wahrscheinlichkeit, dass diejenigen, die vom Fachverlag Institutional Investor als „All-Star“-Analysten bezeichnet wurden, gewohnheitsmäßig unehrliche CEOs hochstuften, um 5,3 Prozentpunkte höher als bei ihren weniger gefeierten Kollegen.
Obwohl wir diese Technologie für eine akademische Studie eingesetzt haben, um Einblicke in diesen Bereich des Finanzwesens zu gewinnen, wirft ihr breiterer Einsatz eine Reihe herausfordernder ethischer Fragen im Zusammenhang mit der Verwendung von KI zur Messung psychologischer Konstrukte auf.
Voreingenommen zum Glauben
Es scheint kontraintuitiv: Warum sollten professionelle Finanzberater immer wieder auf lügende Führungskräfte hereinfallen? Und warum scheinen die renommiertesten Berater die schlechtesten Ergebnisse zu erzielen?
Diese Ergebnisse spiegeln die natürliche menschliche Tendenz wider, davon auszugehen, dass andere ehrlich sind – was als „Wahrheitsvoreingenommenheit„Dank dieser Geisteshaltung sind Analytiker genauso anfällig für Lügen wie jeder andere auch.“
Darüber hinaus haben wir herausgefunden, dass ein erhöhter Status eine stärkere Tendenz zur Wahrheit fördert. Erstens entwickeln „All-Star“-Analysten mit steigendem Ansehen häufig ein Gefühl von Selbstüberschätzung und Anspruchshaltung. Sie beginnen zu glauben, dass es weniger wahrscheinlich ist, dass sie getäuscht werden, was dazu führt, dass sie CEOs für bare Münze nehmen. Zweitens neigen diese Analysten dazu, engere Beziehungen zu CEOs zu pflegen, was laut Studien möglich ist den Wahrheitsbias erhöhen. Dies macht sie noch anfälliger für Täuschungen.
Angesichts dieser Anfälligkeit möchten Unternehmen möglicherweise die Glaubwürdigkeit von „All-Star“-Auszeichnungen neu bewerten. Unsere Forschung unterstreicht auch die Bedeutung der Rechenschaftspflicht in der Regierungsführung und die Notwendigkeit starker institutioneller Systeme, um individuellen Vorurteilen entgegenzuwirken.
Ein KI-Lügendetektor?
Das von uns für diese Studie entwickelte Tool könnte weit über die Geschäftswelt hinaus Anwendung finden. Wir haben den Algorithmus anhand betrügerischer Transkripte, zurückgezogener Artikel in medizinischen Fachzeitschriften und irreführender YouTube-Videos validiert. Es könnte leicht in verschiedenen Kontexten eingesetzt werden.
Es ist wichtig zu beachten, dass das Tool Täuschung nicht direkt misst; es identifiziert Sprachmuster mit Lügen verbunden. Das bedeutet, dass es trotz seiner hohen Genauigkeit sowohl anfällig für falsch positive als auch negative Ergebnisse ist – und insbesondere falsche Behauptungen der Unehrlichkeit könnten verheerende Folgen haben.
Darüber hinaus fällt es Tools wie diesem schwer, gesellschaftlich nützliche „Notlügen“ – die ein Gemeinschaftsgefühl und emotionales Wohlbefinden fördern – von ernsteren Lügen zu unterscheiden. Die wahllose Kennzeichnung aller Täuschungen könnte komplexe soziale Dynamiken stören und unbeabsichtigte Folgen haben.
Diese Probleme müssten angegangen werden, bevor diese Art von Technologie weit verbreitet wird. Aber diese Zukunft ist näher, als viele vielleicht glauben: Unternehmen in Bereichen wie Investitionen, Sicherheit und Versicherungen sind es Ich fange bereits an, es zu verwenden.
Es bleiben große Fragen
Der weit verbreitete Einsatz von KI zur Lügenerkennung hätte tiefgreifende soziale Auswirkungen – vor allem, weil es den Mächtigen schwerer gemacht würde, ohne Folgen zu lügen.
Das klingt vielleicht nach einer eindeutig guten Sache. Doch während die Technologie unbestreitbare Vorteile bietet, wie etwa die Früherkennung von Bedrohungen oder Betrug, könnte sie auch eine große Herausforderung darstellen gefährliche Transparenzkultur. In einer solchen Welt könnten Gedanken und Emotionen der Messung und Beurteilung unterliegen und den Zufluchtsort der geistigen Privatsphäre untergraben.
Diese Studie wirft auch ethische Fragen zum Einsatz von KI zur Messung psychologischer Merkmale auf, insbesondere wenn es um Privatsphäre und Einwilligung geht. Im Gegensatz zur herkömmlichen Täuschungsforschung, die sich auf menschliche Probanden verlässt, die der Untersuchung zustimmen, arbeitet dieses KI-Modell im Verborgenen und erkennt nuancierte Sprachmuster ohne das Wissen des Sprechers.
Die Auswirkungen sind atemberaubend. In dieser Studie haben wir beispielsweise ein zweites Modell für maschinelles Lernen entwickelt, um den Grad des Misstrauens im Tonfall eines Sprechers zu messen. Stellen Sie sich eine Welt vor, in der Sozialwissenschaftler Werkzeuge zur Beurteilung aller Aspekte Ihrer Psychologie entwickeln und diese ohne Ihre Zustimmung anwenden können. Nicht besonders ansprechend, oder?
Während wir in eine neue Ära der KI eintreten, bieten fortschrittliche psychometrische Tools sowohl Versprechen als auch Gefahren. Diese Technologien könnten die Wirtschaft revolutionieren, indem sie beispiellose Einblicke in die menschliche Psychologie ermöglichen. Sie könnten auch die Rechte der Menschen verletzen und die Gesellschaft auf überraschende und beunruhigende Weise destabilisieren. Die Entscheidungen, die wir heute treffen – über Ethik, Aufsicht und verantwortungsvollen Umgang – werden die Weichen für die kommenden Jahre stellen.
Mehr Informationen:
Steven J. Hyde et al., The tangled webs we weave: Untersuchung der Auswirkungen der CEO-Täuschung auf Analystenempfehlungen, Zeitschrift für strategisches Management (2023). DOI: 10.1002/smj.3546
Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel.