OpenAI beendet Wahlbeeinflussungsoperation mithilfe von ChatGPT

OpenAI beendet Wahlbeeinflussungsoperation mithilfe von ChatGPT

OpenAI hat eine Gruppe von ChatGPT-Konten gesperrt, die mit einer iranischen Einflussoperation in Verbindung stehen, die Inhalte über die US-Präsidentschaftswahlen generierte. Blog-Beitrag am Freitag. Das Unternehmen sagt, dass durch die Aktion KI-generierte Artikel und Social-Media-Beiträge entstanden seien, obwohl es den Anschein hat, als ob sie kein großes Publikum erreicht hätten.

Dies ist nicht das erste Mal, dass OpenAI Konten gesperrt hat, die mit staatlichen Akteuren in Verbindung stehen, die ChatGPT böswillig nutzen. Im Mai unterbrach das Unternehmen fünf Kampagnen Verwendung von ChatGPT zur Manipulation der öffentlichen Meinung.

Diese Vorfälle erinnern an staatliche Akteure, die soziale Medien wie Facebook und Twitter nutzen, um frühere Wahlzyklen zu beeinflussen. Jetzt nutzen ähnliche Gruppen (oder vielleicht dieselben) generative KI, um soziale Kanäle mit Falschinformationen zu überfluten. Ähnlich wie Social-Media-Unternehmen scheint OpenAI einen Maulwurf-Whack-a-Mole-Ansatz zu verfolgen und Konten, die mit diesen Bemühungen in Verbindung stehen, zu sperren, sobald sie auftauchen.

OpenAI sagt, dass seine Untersuchung dieser Kontengruppe von einer Microsoft Threat Intelligence-Bericht Die letzte Woche veröffentlichte Studie identifizierte die Gruppe (die sie Storm-2035 nennt) als Teil einer seit 2020 laufenden, breit angelegten Kampagne zur Beeinflussung der US-Wahlen.

Laut Microsoft handelt es sich bei Storm-2035 um ein iranisches Netzwerk mit mehreren Websites, die Nachrichtenagenturen imitieren und „aktiv US-Wählergruppen an entgegengesetzten Enden des politischen Spektrums mit polarisierenden Botschaften zu Themen wie den US-Präsidentschaftskandidaten, LGBTQ-Rechten und dem Israel-Hamas-Konflikt ansprechen“. Das Drehbuch besteht, wie sich bei anderen Operationen gezeigt hat, nicht unbedingt darin, die eine oder andere Politik zu fördern, sondern Zwietracht und Konflikte zu säen.

OpenAI identifizierte fünf Website-Frontseiten für Storm-2035, die sich sowohl als progressive als auch als konservative Nachrichtenagenturen präsentierten und überzeugende Domänennamen wie „evenpolitics.com“ hatten. Die Gruppe verwendete ChatGPT, um mehrere lange Artikel zu verfassen, darunter einen, in dem behauptet wurde, dass „X Trumps Tweets zensiert“, was die Plattform von Elon Musk sicherlich nicht getan hat (wenn überhaupt, ermutigt Musk den ehemaligen Präsidenten Donald Trump, sich mehr auf X zu engagieren).

Ein Beispiel für einen Fake-News-Sender, der von ChatGPT generierte Inhalte ausführt.
Bildnachweise: OpenAI

In den sozialen Medien identifizierte OpenAI ein Dutzend X-Konten und einen Instagram-Account, die von dieser Operation kontrolliert wurden. Das Unternehmen sagt, ChatGPT sei verwendet worden, um verschiedene politische Kommentare umzuschreiben, die dann auf diesen Plattformen gepostet wurden. In einem dieser Tweets wurde fälschlicherweise und verwirrenderweise behauptet, Kamala Harris führe „erhöhte Einwanderungskosten“ auf den Klimawandel zurück, gefolgt von „#DumpKamala“.

OpenAI sagt, es habe keine Beweise dafür gesehen, dass die Artikel von Storm-2035 weit verbreitet wurden, und stellte fest, dass die Mehrheit seiner Social-Media-Posts nur wenige oder gar keine Likes, Shares oder Kommentare erhielt. Dies ist bei solchen Operationen häufig der Fall, die sich mit KI-Tools wie ChatGPT schnell und günstig auf die Beine stellen lassen. Erwarten Sie, dass Sie noch viele weitere solcher Meldungen sehen werden, wenn die Wahl näher rückt und der parteipolitische Streit im Internet zunimmt.

tch-1-tech