OpenAI blockiert ChatGPT-Konten einer iranischen Gruppe, die die US-Wahlen ins Visier nehmen will

OpenAI blockiert ChatGPT Konten einer iranischen Gruppe die die US Wahlen ins
OpenAI sagte am Freitag, es habe Konten eines Iranische Gruppe für die Nutzung seiner ChatGPT Chatbot zur Generierung von Inhalten für Beeinflussung die USA Präsidentschaftswahlen und andere Probleme.
Die Operation mit der Bezeichnung „Storm-2035“ verwendete ChatGPT, um Inhalte zu Themen wie Kommentaren zu den Kandidaten beider Seiten bei den US-Wahlen, dem Gaza-Konflikt und der Teilnahme Israels an den Olympischen Spielen zu generieren und diese dann über Social-Media-Konten und Websites zu verbreiten.
Untersuchungen des von Microsoft unterstützten KI-Unternehmens ergaben, dass ChatGPT zum Erstellen langer Artikel und kürzerer Social-Media-Kommentare verwendet wurde.
OpenAI sagte, dass die Aktion offenbar keine nennenswerte Beteiligung des Publikums bewirkt habe.
Die Mehrzahl der ermittelten Social-Media-Beiträge erhielt wenige oder keine Likes, Shares oder Kommentare und das Unternehmen fand keine Hinweise darauf, dass Web-Artikel in den sozialen Medien geteilt wurden.
Den Konten sei die Nutzung der Dienste von OpenAI untersagt worden und das Unternehmen überwache die Aktivitäten weiterhin auf weitere Versuche, gegen die Richtlinien zu verstoßen, hieß es.
Anfang August hieß es in einem Threat-Intelligence-Bericht von Microsoft, dass das iranische Netzwerk Storm-2035 – das aus vier als Nachrichtenagenturen getarnten Websites besteht – aktiv mit US-Wählergruppen an entgegengesetzten Enden des politischen Spektrums interagiert.
Das Engagement werde durch „polarisierende Botschaften zu Themen wie den US-Präsidentschaftskandidaten, LGBTQ-Rechten und dem Israel-Hamas-Konflikt“ aufgebaut, heißt es in dem Bericht.
Die demokratische Kandidatin Kamala Harris und ihr republikanischer Rivale Donald Trump liefern sich vor der Präsidentschaftswahl am 5. November ein Kopf-an-Kopf-Rennen.
Das KI-Unternehmen gab im Mai an, fünf verdeckte Einflussoperationen vereitelt zu haben, bei denen versucht wurde, seine Modelle für „irreführende Aktivitäten“ im gesamten Internet zu verwenden.

toi-allgemeines