Hacker umgehen jedoch die Einschränkungen von ChatGPT, und in den Untergrundforen gibt es ein aktives Geschwätz, das die Verwendung offenlegt OpenAI API um die Barrieren und Einschränkungen von ChatGPT zu umgehen.„Dies geschieht hauptsächlich durch die Erstellung von Telegram-Bots, die die API verwenden. Diese Bots werden in Hacking-Foren beworben, um ihre Sichtbarkeit zu erhöhen“, so CheckPoint Research (HLW).
Das Cybersicherheitsunternehmen hatte zuvor entdeckt, dass Cyberkriminelle ChatGPT verwendeten, um die Codierung in grundlegender Infostealer-Malware aus dem Jahr 2019 zu verbessern.Es gab viele Diskussionen und Untersuchungen darüber, wie Cyberkriminelle die OpenAI-Plattform, insbesondere ChatGPT, nutzen, um schädliche Inhalte wie Phishing-E-Mails und Malware zu generieren.Die aktuelle Version der API von OpenAI wird von externen Anwendungen verwendet und hat nur sehr wenige Anti-Missbrauchs-Maßnahmen.Infolgedessen ermöglicht es die Erstellung bösartiger Inhalte, wie Phishing-E-Mails und Malware-Code, ohne die Einschränkungen oder Barrieren, die ChatGPT auf seiner Benutzeroberfläche festgelegt hat.In einem Untergrundforum fand CPR einen Cyberkriminellen, der einen neu geschaffenen Dienst bewarb – einen Telegram-Bot, der die OpenAI-API ohne Einschränkungen und Beschränkungen verwendet.„Ein Cyberkrimineller hat ein einfaches Skript erstellt, das die OpenAI-API verwendet, um Anti-Missbrauchsbeschränkungen zu umgehen“, stellten die Forscher fest.Das Cybersicherheitsunternehmen hat auch Versuche russischer Cyberkrimineller beobachtet, die Beschränkungen von OpenAI zu umgehen, um ChatGPT für böswillige Zwecke zu verwenden.Cyberkriminelle interessieren sich immer mehr für ChatGPT, da die dahinter stehende KI-Technologie einen Hacker kosteneffizienter machen kann.