Hacker diskutieren über den Einsatz von ChatGPT und anderen KI-Tools für illegale Aktivitäten: Bericht |

Hacker diskutieren ueber den Einsatz von ChatGPT und anderen KI Tools
Während Technologieunternehmen versuchen, KI-Technologie in Arbeitsabläufe zu integrieren, Hacker suchen auch nach Möglichkeiten, KI-Chatbots zu integrieren illegale Aktivitätenheißt es in einem Bericht, der auf Beiträgen auf der basiert dunkles Netz.
Nach Angaben des Digital Footprint Intelligence-Dienstes von Kaspersky gab es fast 3000 Dark-Web-Beiträge, in denen es hauptsächlich um die Verwendung von ging ChatGPT und andere LLMs für Pläne – von der Erstellung schändlicher Alternativen des Chatbots bis zum Jailbreak des Originals und darüber hinaus.
„Gestohlene ChatGPT-Konten und -Dienste, die ihre automatisierte Erstellung massenhaft anbieten, überschwemmen auch Dark-Web-Kanäle und erreichen weitere 3000 Beiträge“, heißt es in der Studie des russischen Cybersicherheitsunternehmens weiter.
Im Jahr 2023 entdeckte der Dienst von Kaspersky fast 3000 Beiträge im Dark Web und gab an, dass die Chatrate im März ihren Höhepunkt erreichte.
„Bedrohungsakteure erforschen aktiv verschiedene Schemata zur Implementierung von ChatGPT und KI. Zu den Themen gehören häufig die Entwicklung von Malware und andere Arten der illegalen Verwendung von Sprachmodellen, etwa die Verarbeitung gestohlener Benutzerdaten, das Parsen von Dateien von infizierten Geräten und mehr“, sagte Alisa Kulishenko, Analystin für digitale Fußabdrücke bei Kaspersky.
Alternativen zu ChatGPT
In dem Bericht heißt es, dass die Popularität von KI-Tools haben zur Integration automatisierter Antworten von ChatGPT oder seinen Äquivalenten in einige Foren für Cyberkriminelle geführt. Es fügte hinzu, dass Hacker Jailbreaks häufig über verschiedene Dark-Web-Kanäle weitergeben und „Wege entwickeln, um legitime Tools, beispielsweise für Pentests, auf der Grundlage von Modellen für böswillige Zwecke auszunutzen“.

Große Aufmerksamkeit widmen Hacker auch Projekten wie XXXGPT, FraudGPT und anderen, die im Dark Web als Alternativen zu ChatGPT vermarktet werden. Berichten zufolge bieten diese Alternativen zusätzliche Funktionalität und unterliegen keinen Einschränkungen, die die legitimen Chatbots einschränken.
Gestohlene ChatGPT-Konten stehen zum Verkauf
Eine weitere Bedrohung für Benutzer und Unternehmen ist der Markt für Konten für die kostenpflichtige Version von ChatGPT. Im Jahr 2023 bewarb ein weiterer Cache von 3000 Beiträgen (zusätzlich zu den oben genannten) ChatGPT-Konten zum Verkauf im Dark Web und auf Schatten-Telegram-Kanälen. Diese Beiträge verbreiten entweder gestohlene Konten oder bewerben automatische Registrierungsdienste, die auf Anfrage Konten erstellen.
„Der automatisierte Charakter von Cyberangriffen führt oft zu automatisierten Abwehrmaßnahmen. Dennoch ist es von entscheidender Bedeutung, über die Aktivitäten der Angreifer informiert zu bleiben, um den Gegnern im Hinblick auf die Cybersicherheit von Unternehmen einen Schritt voraus zu sein“, sagt Alisa Kulishenko, Analystin für den digitalen Fußabdruck bei Kaspersky.
Kulishenko sagte, dass KI-Tools zwar nicht grundsätzlich gefährlich seien, Cyberkriminelle jedoch versuchten, effiziente Wege zu finden, sie einzusetzen, um möglicherweise die Zahl der Cyberangriffe zu erhöhen. Der Sprecher fügte hinzu, dass es unwahrscheinlich sei, dass generative KI und Chatbots die Angriffslandschaft im Jahr 2024 revolutionieren werden.
Die Times of India Gadgets Now-Auszeichnungen: Geben Sie jetzt Ihre Stimme ab und wählen Sie die besten Telefone, Laptops und anderen Gadgets des Jahres 2023 aus

toi-tech