Forscher haben eine „KI-Chatbot“-Warnung für Sie

Forscher haben eine „KI Chatbot Warnung fuer Sie
In einer Zeit, in der KI-Chatbots von verschiedenen Unternehmen in ihre Dienste integriert werden, haben Forscher die Menschen davor gewarnt, Chatbots zu verwenden, die nicht auf der Website oder App eines Unternehmens erscheinen.
Entsprechend der Norton Dem Consumer Cyber ​​Safety Pulse-Bericht zufolge sind Cyberkriminelle jetzt in der Lage, Deepfake-Chatbots zu erstellen, was Bedrohungsakteuren eine weitere Möglichkeit eröffnet, weniger technisch versierte Personen anzugreifen. Forscher warnen davor, dass diejenigen, die Chatbots verwenden, keine persönlichen Informationen preisgeben sollten, während sie online chatten.
„Ich bin begeistert von großen Sprachmodellen wie ChatGPT, bin aber auch skeptisch, wie Cyberkriminelle es missbrauchen können. Wir wissen, dass sich Cyberkriminelle schnell an die neueste Technologie anpassen, und wir sehen das ChatGPT kann verwendet werden, um schnell und einfach überzeugende Bedrohungen zu erstellen“, sagte Kevin Roundy, Senior Technical Director von Norton.

Hacker geben sich als legitime Chatbots aus
Der Bericht besagt, dass die von Hackern erstellten Chatbots sich als Menschen oder legitime Quellen wie eine Bank oder eine Regierungsbehörde ausgeben können. Sie können dann Opfer dazu manipulieren, ihre persönlichen Daten preiszugeben, um Geld zu stehlen oder Betrug zu begehen.
Die Forscher stellten fest, dass Menschen es vermeiden sollten, als Reaktion auf unerwünschte Telefonanrufe, E-Mails oder Nachrichten auf Links zu klicken.
Hacker verwenden ChatGPT, um Bedrohungen zu generieren
Norton betonte auch, dass Cyberkriminelle ChatGPT verwenden, um bösartige Bedrohungen zu generieren, „durch seine beeindruckende Fähigkeit, menschenähnlichen Text zu generieren, der sich an verschiedene Sprachen und Zielgruppen anpasst“.

„Cyberkriminelle können jetzt schnell und einfach E-Mail- oder Social-Media-Phishing-Köder erstellen, die noch überzeugender sind, wodurch es schwieriger wird, zu unterscheiden, was legitim und was eine Bedrohung ist“, fügte Norton hinzu.
Anfang dieses Jahres wurde eine Studie von durchgeführt Brombeere fanden heraus, dass KI-Chatbots in den nächsten 12 bis 24 Monaten in Form von KI-infundierten Cyberangriffen gegen Organisationen eingesetzt werden können.
„Manche denken, das könnte in den nächsten Monaten passieren. Und mehr als drei Viertel der Befragten (78 %) sagen voraus, dass ein von ChatGPT gutgeschriebener Angriff sicherlich innerhalb von zwei Jahren stattfinden wird. Darüber hinaus glaubt eine große Mehrheit (71 %), dass Nationalstaaten ChatGPT möglicherweise bereits für böswillige Zwecke nutzen“, heißt es in dem Bericht.

toi-tech