Cyberkriminelle verwenden Telegram-Bots, um ChatGPT-Beschränkungen zu umgehen. So geht’s

Cyberkriminelle verwenden Telegram Bots um ChatGPT Beschraenkungen zu umgehen So gehts
Cyberkriminelle werden angeblich verwendet Telegramm-Bots umgehen ChatGPT-Einschränkungen. Laut einem Bericht von Check Point Research (CPR), Anzeigen von Telegramm Bots wurden im Untergrund gefunden. Hier sind alle Details darüber, wie Cyberkriminelle Telegram-Bots verwenden, um ChatGPT-Einschränkungen zu umgehen:
Wie Cyberkriminelle Telegram-Bots verwenden
Laut dem Bericht verwenden die Bots die API von OpenAI, um die Erstellung von bösartigen E-Mails oder Code zu ermöglichen. Der Bericht deutet auch darauf hin, dass Bot-Hersteller derzeit bis zu 20 kostenlose Abfragen gewähren. Danach berechnen sie jedoch 5,50 $ für jeweils 100 Abfragen. CPR hat vor den fortgesetzten Bemühungen von Cyberkriminellen gewarnt, die Beschränkungen von ChatGPT zu umgehen, OpenAI zur Skalierung unethischer Zwecke zu verwenden.
Der Bericht enthält auch Bilder, die zeigen, wie sich Cyberkriminelle an Telegram-Bots wenden, um die von ChatGPT auferlegten Beschränkungen zu umgehen. Eines der Bilder zeigt die Werbung des OpenAI-Bots in Telegram, die im Underground-Forum verfügbar ist. Ein weiteres Bild zeigt ein Beispiel einer Phishing-E-Mail, die in einem Telegram-Bot erstellt wurde, um die Fähigkeit zu demonstrieren, die OpenAI-API ohne Einschränkungen zu verwenden.
Das dritte Bild zeigt ein Beispiel für die Möglichkeit, einen Malware-Code ohne Missbrauchsbeschränkungen in einem Telegram-Bot zu erstellen, der die OpenAI-API verwendet. Das vierte Bild zeigt ein Geschäftsmodell des ChatGPT-API-basierten Telegrammkanals.

Der Bericht behauptet auch, dass Cyberkriminelle grundlegende Skripte erstellen, die OpenAIs API verwenden, um Anti-Missbrauchsbeschränkungen zu umgehen. Das fünfte und letzte Bild zeigt ein Beispiel für ein Skript, das die API direkt abfragt und Einschränkungen umgeht, um Malware zu entwickeln.
CPRs nehmen sich dieser cyberkriminellen Aktivität an
Sergey Shykevich, Threat Group Manager bei Check Point Software, sagte: „Als Teil seiner Inhaltsrichtlinie hat OpenAI Barrieren und Einschränkungen geschaffen, um die Erstellung bösartiger Inhalte auf seiner Plattform zu stoppen. Wir beobachten jedoch, wie Cyberkriminelle die Beschränkungen von ChatGPT umgehen, und es gibt aktives Geschwätz in den Untergrundforen, in denen offengelegt wird, wie die OpenAI-API verwendet werden kann, um die Barrieren und Beschränkungen von ChatGPT zu umgehen. Dies geschieht hauptsächlich durch die Erstellung von Telegram-Bots, die die API verwenden, und diese Bots werden in Hacking-Foren beworben, um ihre Sichtbarkeit zu erhöhen. Die aktuelle Version der API von OpenAI wird von externen Anwendungen verwendet und hat nur sehr wenige Anti-Missbrauchs-Maßnahmen. Infolgedessen ermöglicht es die Erstellung bösartiger Inhalte wie Phishing-E-Mails und Malware-Code ohne die Einschränkungen oder Barrieren, die ChatGPT auf seiner Benutzeroberfläche festgelegt hat. Im Moment sehen wir kontinuierliche Bemühungen von Cyberkriminellen, Wege zu finden, ChatGPT-Beschränkungen zu umgehen.“

toi-tech