Empfinden Kunden KI-geschriebene Kommunikation als weniger authentisch?

Von Nike und Google bis hin zu Coca-Cola und McDonald’s integrieren große Marken künstliche Intelligenz (KI) in ihre Werbekampagnen. Doch wie stehen Verbraucher dazu, dass Roboter emotional aufgeladene Marketinginhalte generieren? Das ist die Frage, die ein Professor des New York Institute of Technology in einem neuen Artikel stellt Zeitschrift für Wirtschaftsforschung Studie.

Während prädiktive KI es Vermarktern ermöglicht, das Verbraucherverhalten vorherzusagen, ermöglicht ihnen generative KI die Produktion neuartiger Inhalte, einschließlich Text, Bilder, Videos oder Audio. Beispielsweise zeigte ein kürzlich von KI generierter Werbespot von Toys „R“ Us Videoinhalte, die den Firmengründer als Jungen neben seinem Markenmaskottchen Geoffrey, der Giraffe, zeigten.

Während viele Marken ihre KI-gestützten Kampagnen als Zeichen der Innovation herausstellen, verschweigen andere möglicherweise die Offenlegung der KI-Nutzung, was zu ethischen Bedenken und Forderungen nach staatlicher Regulierung führt. Doch selbst transparente Marken stoßen auf Gegenreaktionen, wie Google erlebte, als die Zuschauer durch die Anzeige „Dear Sydney“ beleidigt wurden, in der ein Vater seiner Tochter mithilfe von KI beim Verfassen eines Fanbriefs an ihren Lieblingsolympiaden hilft.

„KI ist ein Neuland für Markenvermarkter, aber wir wissen, dass Verbraucher authentische Interaktionen mit Marken sehr schätzen“, sagt die Hauptautorin der Studie, Colleen Kirk, DPS, Professorin für Marketing und Management am New York Institute of Technology. „Obwohl immer mehr Unternehmen KI-generierte Inhalte nutzen, um Markenengagement und -bindung zu stärken, hat keine Studie untersucht, wie Verbraucher die Authentizität von Textinhalten bewerten, die von einem Roboter erstellt wurden.“

Kirk und ihr Co-Autor der Studie, Julian Givi, Ph.D., ein Marketingforscher und Fakultätsmitglied an der West Virginia University, führten verschiedene Experimente durch, um zu sehen, wie Verbraucher reagieren, wenn emotionale Botschaften von KI geschrieben werden. Sie stellten die Hypothese auf, dass Verbraucher emotional aufgeladene, von KI generierte Inhalte weniger positiv sehen würden, was sich auf ihre Wahrnehmung der Marke und ihren Wunsch, mit ihr zu interagieren, auswirken würde.

In einem Szenario stellten sich die Teilnehmer vor, eine herzliche Nachricht von einem Fitnessverkäufer zu erhalten, der ihnen beim Kauf eines neuen Gewichtssatzes half. In der Nachricht hieß es, er sei vom Kauf des Verbrauchers inspiriert worden, wobei einige Teilnehmer glaubten, dass er von der KI generiert worden sei, während andere glaubten, dass der Verkäufer ihn selbst entworfen habe (Kontrollgruppe). Während die Mitglieder der Kontrollgruppe positiv reagierten, hatten die Mitglieder der KI-Gruppe das Gefühl, dass die Notiz ihre moralischen Grundsätze verletzte (moralischer Ekel).

Daher war es auch unwahrscheinlich, dass sie das Geschäft weiterempfehlen würden, und die Wahrscheinlichkeit, dass sie bei künftigen Käufen die Marke wechselten, war höher. Viele gaben dem Geschäft auf einer simulierten Bewertungsseite sogar schlechte Bewertungen.

Auch andere Szenarien brachten wichtige Erkenntnisse zur Stützung der Hypothese der Forscher zutage:

  • KI-generierte sachliche Kommunikation löste (im Vergleich zu emotionaler Kommunikation) weniger wahrscheinlich moralischen Ekel aus, reduzierte positive Mundpropaganda und verringerte die Markentreue bei den Verbrauchern.
  • KI-generierte Nachrichten, in denen der Roboter über Selbstautonomie verfügte (z. B. ein KI-generiertes Memo, unterzeichnet von „The Summit Apparel AI Chatbot“), wurden positiver bewertet als KI-generierte Nachrichten, die von einem Unternehmensvertreter unterzeichnet wurden.
  • Als die Teilnehmer glaubten, dass die meisten emotionalen Marketingkommunikationen von KI verfasst würden, äußerten sie Abscheu. Das Gegenteil war der Fall, als sie glaubten, dass die meisten Mitteilungen von Menschen verfasst wurden. Daher können Marken von der Förderung der menschlichen Herkunft ihrer Produkte und Kommunikation profitieren.
  • Nachrichten, die von der KI lediglich bearbeitet, aber nicht geschrieben wurden, wurden hinsichtlich ihrer Authentizität weniger bestraft.
  • Menschliche Kommunikatoren (im Vergleich zu KI) sahen sich mit einer größeren „Authentizitätsstrafe“ konfrontiert, wenn sie emotionale Inhalte kopierten.
  • Kurz gesagt legen die Ergebnisse nahe, dass Unternehmen sorgfältig abwägen müssen, ob und wie sie von KI erstellte Kommunikation offenlegen und dabei stets der Authentizität ihrer Interaktionen mit Verbrauchern Priorität einräumen müssen. Da Regierungen versuchen, die Offenlegung von KI zunehmend zu regulieren und den Verbrauchern ein stärkeres Bewusstsein dafür zu vermitteln, wie Marken ihre Botschaften gestalten, sollten Vermarkter laut Kirk den Ergebnissen der Studie große Aufmerksamkeit schenken.

    „Verbraucher werden immer skeptischer gegenüber dem menschlichen Ursprung der Marketingkommunikation. Unsere Forschung liefert dringend benötigte Erkenntnisse darüber, wie sich der Einsatz von KI zur Generierung emotionaler Inhalte negativ auf die Wahrnehmung von Marken und damit auf die Verbraucherbeziehungen auswirken könnte, die ihr Geschäftsergebnis unterstützen.“ „, sagt sie. „Während KI-Tools Vermarktern neue Möglichkeiten eröffnen, sollten diese Fachleute einen bewährten Grundsatz im Auge behalten: Authentizität ist immer das Beste.“

    Weitere Informationen:
    Colleen P. Kirk et al., Der KI-Autorenschaftseffekt: Authentizität, moralischen Ekel und Verbraucherreaktionen auf KI-generierte Marketingkommunikation verstehen, Zeitschrift für Wirtschaftsforschung (2024). DOI: 10.1016/j.jbusres.2024.114984

    Bereitgestellt vom New York Institute of Technology

    ph-tech