Tötet KI den Social-Media-Star? Wie Unternehmen von virtuellen Influencern profitieren

Die aufstrebenden Stars von Instagram sind eine neue Generation von Social-Media-Influencern. Tatsächlich sind viele von ihnen technisch gesehen gar keine Menschen.

Nehmen Lil Miquela, auch bekannt als Miquela Sousa. Der 19-jährige brasilianisch-amerikanische Social-Media-Star hat über 2,6 Millionen Follower auf der Plattform und veröffentlicht regelmäßig gesponserte Inhalte in Zusammenarbeit mit Marken wie BMW Und Pacsun.

Aber sie ist keine junger Erwachsener der nach Los Angeles zog, um es zu versuchen es in der Schöpferökonomie. Sie ist dort entstanden und war entworfen, um zu stören diese Wirtschaft.

Mit anderen Worten: Sie ist virtuell und wurde mithilfe computergenerierter Bilder (CGI) erstellt.

Zu den weiteren bemerkenswerten virtuellen Social-Media-Influencern gehören Lu Do Magalu, ein brasilianischer Social-Media-Star mit mehr als 6,8 Millionen Followern auf Instagram; Mittags, eine lebhafte 19-jährige asiatische Modefanatikerin mit über 431.000 Followern auf der Plattform; Und BermudaMiquelas blonde Schwester, die über 230.000 Instagram-Follower hat.

Viele dieser Stars gibt es schon seit einiger Zeit. Lil Miquela tauchte zum ersten Mal im Jahr 2016 auf. Doch mit dem Aufkommen von KI-Tools zur Bilderzeugung wie DALL-E 2 und Midjourney ist es einfacher denn je, virtuelle Influencer zu machen, und Unternehmen profitieren davon.

KI-Modellierungsagenturen wie The Clueless sind im vergangenen Jahr aufgetaucht, um mit Marken zusammenzuarbeiten und ihnen bei der Erstellung maßgeschneiderter Avatare zu helfen berichtet die Financial Times.

Aitana Lopezeine 25-jährige Frau mit rosa Haaren und über 265.000 Instagram-Followern, ist einer der bekanntesten virtuellen Stars von Clueless. regelmäßig Tausende von Dollar durch Markendeals einstreichen obwohl es erst letzten Sommer entstanden ist.

Aus Marketing- und Branding-Perspektive ist das Phänomen leicht zu verstehen, sagt Yakov Bart, Professor für Marketing an der Northeastern University und Mitglied des Führungsausschusses am Northeastern Institute for Experiential AI. Dies senkt nicht nur die Kosten, sondern ermöglicht Unternehmen auch eine stärkere Kontrolle über die Nachrichtenübermittlung.

„Marken sind auf jeden Fall offen dafür, jede ihnen zur Verfügung stehende Werbetechnologie zu nutzen, die ihnen eine gute Kapitalrendite bringt“, sagt er. „In manchen Kontexten ist der Einsatz virtueller oder synthetischer Influencer effizienter, wenn man die Rendite in Form von Veränderungen in der Denkweise der Verbraucher nach der Interaktion mit dem Influencer im Vergleich zu den Kosten berücksichtigt.“

Aber wo bleibt das für menschliche Influencer, die auf diese Plattformen angewiesen sind, um ihren Lebensunterhalt zu verdienen?

Sollten KI-Influencer außerdem dazu verpflichtet werden, offenzulegen, dass sie computergeneriert sind?

Viele der heute aktiven KI-Social-Media-Stars geben bewusst an, dass sie computergeneriert sind. In der Instagram-Biografie von Lil Miquela heißt es beispielsweise: „Der 19-jährige Roboter lebt in LA.“

Laut Bart tun dies die Konten möglicherweise teilweise, um die Neuheit der Technologie hervorzuheben und ihnen zu helfen, sich von anderen abzuheben.

„Da Verbraucher jeden Tag mit der Kommunikation von Marken über Hunderte verschiedener Kanäle bombardiert werden, wird es immer schwieriger, aus der Masse herauszustechen“, sagt er.

Aber die Technologie zu Marketingzwecken hervorzuheben und sie aus Gründen der Transparenz offenzulegen, sind zwei verschiedene Dinge.

Instagram ist Erforschung der Einführung von Etiketten für KI-generierte Inhalte auf seiner Plattform. Im September, TikTok Es wurde die Option hinzugefügt, die es Erstellern ermöglicht, ihre von der KI erstellten Inhalte zu kennzeichnen und erforscht auch die Automatisierung dieser Etiketten.

Es gibt Ein Gesetzesentwurf geht durch den Kongress, der Unternehmen dazu verpflichten würde, KI-erstellte Inhalte zu kennzeichnen. Präsident Joe Biden Durchführungsverordnung zur Regulierung der KI Bietet außerdem Hinweise zur Kennzeichnung von KI-Inhalten.

Aber was kann ein menschlicher Social-Media-Influencer tun?

Bart stellt schnell fest, dass der Mensch im Marketingbereich auch bei der Weiterentwicklung dieser Technologien weiterhin eine entscheidende Rolle spielen wird.

Auch wenn diese Avatare den Eindruck erwecken, empfindungsfähig zu sein, sind sie es nicht. Lil Miquela zum Beispiel hat ein ganzes Team von Menschen hinter sich, die im Hintergrund die Fäden ziehen, erklärt Bart.

Darüber hinaus nutzen auch menschliche Social-Media-Influencer KI-Tools, um ihre Arbeitsbelastung zu reduzieren und mit Marken zusammenzuarbeiten.

„Es gibt immer mehr Agenturen, die ausgefeilte KI-Tools für maschinelles Lernen nutzen, um mit Millionen von Influencern und Tausenden von Marken zusammenzuarbeiten, die genau den richtigen Influencer-Typ ansprechen möchten“, sagt Bart.

Aber die Sorge ist immer noch da.

Im Jahr 2022 sah sich die Bekleidungsmarke Pacsun mit großer Gegenreaktion konfrontiert, als sie ankündigte, dass Lil Miquela ihre neueste Botschafterin sein würde. Kritiker des Schritts sagten, der Influencer verewige Stereotypen und unrealistische Schönheitsstandards. Sie argumentierten, dass stattdessen ein echter Mensch hätte eingestellt werden sollen.

Vor kurzem hat das Formel-E-Team Mahindra diesen Monat seine weibliche KI-Influencerin „Ava Beyond Reality“ entlassen, nachdem sich Fans aus vielen der gleichen Gründe beschwert hatten.

Tomo Lazovich, leitender Wissenschaftler am Institute for Experiential AI der Northeastern University, verglich die Situation mit den Streiks in Hollywood im vergangenen Sommer und Herbst.

Zu den Forderungen der Schauspieler und Autoren gehörte die Festlegung von Leitlinien dafür, wie und wann KI im kreativen Prozess eingesetzt werden kann.

„Es ist nicht besonders überraschend, dass wir das Problem im Bereich der Erstellung von Online-Inhalten sehen, wo Unternehmen versuchen, generative KI zu nutzen, um Menschen zu ersetzen, die diese Inhalte sonst erstellen würden“, sagt Lazovich.

Es gab Bemühungen, Social-Media-Influencern bei der Gewerkschaftsbildung zu helfen. Im Jahr 2021 veröffentlichte SAG AFTRA die Influencer-Vereinbarung, „einen vorab ausgehandelten Deal, der Mitgliedern, die als Influencer arbeiten, einen gewissen Schutz bietet, wenn sie einen Vertrag für gesponserte Inhalte aushandeln“, wie beispielsweise das Time Magazine berichtet.

Doch der wahre Einfluss, den KI auf die Creator Economy haben wird, ist noch ungewiss, da sowohl Marken als auch Influencer weiterhin lernen, wie sie die Technologie am effizientesten nutzen können.

Darüber hinaus hat Lazovich Bedenken, wie diese KI-generierten Tools zur Verbreitung von Fehlinformationen und zur Herabwürdigung böswilliger Akteure eingesetzt werden könnten. Diese Social-Media-Stars wurden auch von Eltern wegen des möglichen Schadens angesprochen, den sie Teenagern zufügen könnten.

„Wie viele KI-Tools wird es eine weitere Möglichkeit sein, bestehende Vorurteile in unserer Gesellschaft zu verstärken“, sagt Lazovich.

Aus Sicht von Michael Ann DeVito, Professorin für Informatik und Kommunikationswissenschaften im Nordosten, beginnt das Problem auf einer grundlegenden Ebene, insbesondere bei den Bergen von Bildern und Texten, auf denen diese KI-Tools trainiert werden.

„Das größere Problem, das ich sehe, und ich würde sogar sagen, das heimtückischere Problem ist, dass die gesamte KI-Technologie, die überhaupt zur Generierung dieser Influencer eingesetzt wird, auf massiven Urheberrechtsverletzungen basiert“, sagt sie . „Für KI-Influencer ist das der Kern des Problems.“

Viele der heute auf dem Markt erhältlichen KI-Tools sind große Sprachmodelle oder LLMs. Damit sie funktionieren, müssen sie große Datenmengen aufnehmen, um Originalinhalte produzieren zu können.

Die Unternehmen, die hinter Tools wie DALLE-2 und Midjourney stehen, werden derzeit wegen Verstoßes gegen Urheberrechte verklagt, indem sie ihre KI-Modelle auf urheberrechtlich geschützten Werken trainieren, wie die Kläger behaupten.

Die Unternehmen behaupten, dass sie ihre Modelle anhand dieser Daten trainieren können, da alles unter „Fair Use“ fällt, einem US-amerikanischen Urheberrechtsgesetz, das es einer Partei erlaubt, das urheberrechtlich geschützte Werk einer anderen Partei für Zwecke wie „Kritik, Kommentar, Berichterstattung, Unterricht, Stipendium oder Forschung“, so die Copyright Alliance.

DeVito glaubt diesem Argument nicht.

„Es gibt Kriterien für eine faire Nutzung“, sagt sie. „Es gibt Grenzen, wie viel man probieren kann. Sie schöpfen ganze Webseiten, ganze Videos aus. Sie haben keine interne Kontrolle.“

Was ist also der beste Weg vorwärts?

DeVito sagt, wir beginnen damit, die großen Sprachmodelle wie DALLE 2 und Midjourney aufzugeben und Modelle zu erstellen, die auf kleineren und spezifischeren Datensätzen mit stärkeren Kurationstools und mit Daten trainiert werden, die genau sind und tatsächlich legal verwendet werden können.

„Kleinere, speziell entwickelte Modelle, die eine stärkere Kuratierung der in sie einfließenden Daten aufweisen, könnten viel sicherer sein“, sagt sie.

Bereitgestellt von der Northeastern University

Diese Geschichte wurde mit freundlicher Genehmigung von Northeastern Global News erneut veröffentlicht news.northeastern.edu.



ph-tech