Laut einer Untersuchung von Brombeere, kann der beliebte Chatbot in den nächsten 12 bis 24 Monaten in Form von KI-gestützten Cyberangriffen gegen Unternehmen eingesetzt werden. Die im Januar 2023 durchgeführte Studie ergab, dass 51 % von 1.500 in Nordamerika, Australien und Großbritannien befragten Entscheidungsträgern für IT- und Cybersicherheit sagen: „Wir sind weniger als ein Jahr davon entfernt, dass ein erfolgreicher Cyberangriff ChatGPT zugeschrieben wird.“
„Manche denken, das könnte in den nächsten Monaten passieren. Und mehr als drei Viertel der Befragten (78 %) sagen voraus, dass ein von ChatGPT gutgeschriebener Angriff sicherlich innerhalb von zwei Jahren stattfinden wird. Darüber hinaus glaubt eine große Mehrheit (71 %), dass Nationalstaaten ChatGPT möglicherweise bereits für böswillige Zwecke nutzen“, heißt es in dem Bericht.
Wie IT-Führungskräfte glauben, dass Bedrohungsakteure den KI-Chatbot nutzen können
Der BlackBerry-Bericht besagt auch, dass 53 % der IT-Experten glauben, dass ChatGPT Hackern helfen wird, glaubwürdigere und legitim klingende Phishing-E-Mails zu erstellen, 49 % sagen, dass es weniger erfahrenen Hackern helfen wird, ihr technisches Wissen zu verbessern und ihre Fähigkeiten zu entwickeln, und ebenso viele von ihnen schlagen vor, dass ChatGPT verwendet wird, um Fehlinformationen/Desinformationen zu verbreiten.
Darüber hinaus behaupten 48 %, dass der KI-Chatbot verwendet wird, um neue Malware zu erstellen, und 46 % von ihnen sagen, dass er verwendet wird, um die Komplexität von Bedrohungen/Angriffen zu erhöhen. Fast drei Viertel der Befragten glauben, dass ChatGPT hauptsächlich für „gute Zwecke“ verwendet wird.
„Ich glaube, dass diese Bedenken berechtigt sind, basierend auf dem, was wir bereits sehen. Es ist gut dokumentiert, dass Menschen mit böswilligen Absichten das Wasser testen, und im Laufe dieses Jahres erwarten wir, dass Hacker viel besser in den Griff bekommen, wie sie KI-fähige Chatbots erfolgreich für schändliche Zwecke einsetzen können“, sagte Shishir Singh, BlackBerry’s Chief Technology Officer.
„Tatsächlich untersuchen sowohl Cyberkriminelle als auch Experten für Cyberverteidigung aktiv, wie sie ChatGPT nutzen können, um ihre beabsichtigten Ergebnisse zu erweitern und zu verbessern, und sie werden dies auch weiterhin tun. Die Zeit wird zeigen, welche Seite letztendlich erfolgreicher ist“, fügte er hinzu.
Im vergangenen Jahr wurden ähnliche Bedenken von einem Cybersicherheitsunternehmen geäußert CheckPoint-Forschung als sein Forscherteam herausfand, dass ChatGPT Phishing-E-Mails und grundlegende bösartige Codes schreiben kann.
Ist ChatGPT der Google-Killer? | OpenAI-ChatGPT