„Emotionale KI“ könnte der nächste Trend bei Unternehmenssoftware sein, und das könnte problematisch sein

Während Unternehmen mit der allgegenwärtigen Einbettung von KI experimentieren, besteht ein unerwarteter Trend darin, dass sie sich der KI zuwenden, um ihren vielen neu entdeckten Bots zu helfen, menschliche Emotionen besser zu verstehen.

Es handelt sich um einen Bereich, der laut PitchBooks neuem Forschungsbericht zu Enterprise Saas Emerging Tech das sagt voraus, dass diese Technologie auf dem Vormarsch ist.

Die Begründung lautet etwa wie folgt: Wenn Unternehmen KI-Assistenten für Führungskräfte und Mitarbeiter einsetzen oder KI-Chatbots zu Vertriebsmitarbeitern und Kundendienstmitarbeitern im Außendienst machen, wie soll eine KI dann gute Leistungen erbringen, wenn sie den Unterschied zwischen einem wütenden „Was meinen Sie damit?“ und einem verwirrten „Was meinen Sie damit?“ nicht versteht?

Emotion AI behauptet, das ausgefeiltere Gegenstück zur Sentimentanalyse zu sein, einer Vor-KI-Technologie, die versucht, menschliche Emotionen aus textbasierten Interaktionen, insbesondere in sozialen Medien, herauszufiltern. Emotion AI ist das, was man als multimodal bezeichnen könnte. Es verwendet Sensoren für visuelle, akustische und andere Eingaben in Kombination mit maschinellem Lernen und Psychologie, um zu versuchen, während einer Interaktion menschliche Emotionen zu erkennen.

Große KI-Cloud-Anbieter bieten Dienste an, die Entwicklern Zugriff auf emotionale KI-Funktionen wie die Emotion API der kognitiven Dienste von Microsoft Azure oder den Rekognition-Dienst von Amazon Web Services geben. (Letzterer war im Laufe der Jahre für Kontroversen gesorgt.)

Obwohl emotionale KI, sogar als Cloud-Dienst angeboten, nichts Neues ist, hat sie laut PitchBook durch den plötzlichen Anstieg von Bots in der Arbeitswelt eine größere Zukunft in der Geschäftswelt als jemals zuvor.

„Mit der Verbreitung von KI-Assistenten und vollautomatischen Mensch-Maschine-Interaktionen verspricht Emotions-KI, menschenähnlichere Interpretationen und Reaktionen zu ermöglichen“, schreibt Derek Hernandez, leitender Analyst für neue Technologien bei PitchBook, in dem Bericht.

„Kameras und Mikrofone sind integrale Bestandteile der Hardwareseite von Emotions-KI. Diese können auf einem Laptop, einem Telefon oder einzeln an einem physischen Ort angebracht sein. Darüber hinaus wird tragbare Hardware wahrscheinlich eine weitere Möglichkeit bieten, Emotions-KI über diese Geräte hinaus einzusetzen“, sagt Hernandez gegenüber Tech. (Wenn also dieser Kundenservice-Chatbot nach Kamerazugriff fragt, könnte dies der Grund sein.)

Zu diesem Zweck werden immer mehr Start-ups gegründet, um dies zu erreichen. Dazu gehört Uniphore (mit Insgesamt 610 Millionen US-Dollar gesammeltdarunter 400 Millionen US-Dollar im Jahr 2022 unter der Leitung von NEA), sowie MorphCast, Voicesense, Superceed, Siena AI, audEERING und Opsis, die laut PitchBook-Schätzungen jeweils auch bescheidene Summen von verschiedenen VCs einsammelten.

Natürlich ist emotionale KI ein typischer Silicon-Valley-Ansatz: Man nutzt Technologie, um ein Problem zu lösen, das durch den Einsatz von Technologie bei Menschen entstanden ist.

Aber selbst wenn die meisten KI-Bots irgendwann eine Form automatisierter Empathie entwickeln, heißt das nicht, dass diese Lösung wirklich funktionieren wird.

Tatsächlich haben Forscher der Idee einen Strich durch die Rechnung gemacht, als Emotions-KI das letzte Mal im Silicon Valley großes Interesse erregte – etwa im Jahr 2019, als ein Großteil der KI/ML-Welt noch auf Computervision und nicht auf generative Sprache und Kunst fokussiert war. In diesem Jahr Ein Forscherteam veröffentlichte eine Meta-Review von Studien und kam zu dem Schluss, dass menschliche Emotionen nicht wirklich durch Gesichtsbewegungen bestimmt werden können. Mit anderen Worten, die Idee, dass wir einer KI beibringen können, die Gefühle eines Menschen zu erkennen, indem wir sie nachahmen lassen, wie andere Menschen dies versuchen (Gesichter, Körpersprache, Tonfall lesen), ist in ihrer Annahme etwas fehlgeleitet.

Es besteht auch die Möglichkeit, dass KI-Regulierungen wie der KI-Act der Europäischen Union, der Computer-Vision-Systeme zur Emotionserkennung für bestimmte Anwendungen wie Bildung verbietet, diese Idee im Keim ersticken könnten. (Einige Landesgesetze wie das BIPA von Illinois verbieten auch die Erfassung biometrischer Daten ohne Erlaubnis.)

All dies gibt einen umfassenderen Einblick in diese KI-Allgegenwärtigkeit der Zukunft, die Silicon Valley derzeit wie verrückt aufbaut. Entweder werden diese KI-Bots versuchen, emotionales Verständnis zu entwickeln, um Aufgaben wie Kundenservice, Verkauf und Personalwesen und all die anderen Aufgaben zu erledigen, die Menschen ihnen zuteilen möchten, oder vielleicht werden sie bei keiner Aufgabe, die diese Fähigkeit wirklich erfordert, besonders gut sein. Vielleicht steht uns ein Büroalltag voller KI bevor. Bots auf dem Niveau von Siri etwa 2023. Wer kann schon sagen, was schlimmer ist als ein von der Geschäftsleitung benötigter Bot, der während Meetings in Echtzeit die Gefühle aller errät?

tch-1-tech