KI-Chatbots können „leicht hypnotisiert“ werden, um Betrügereien und Cyberangriffe durchzuführen: Bericht

Eines der am meisten diskutierten Risiken generativer KI ist die Nutzung der Technologie durch Hacker. Kurz nachdem OpenAI ChatGPT eingeführt hatte, häuften sich Berichte, denen zufolge Cyberkriminelle bereits damit begonnen hätten, den KI-Chatbot zur Entwicklung von Hacking-Tools zu nutzen. Ein neuer Bericht behauptet nun, dass große Sprachmodelle (LLMs) „hypnotisiert“ werden können, um böswillige Angriffe auszuführen.Laut einem Bericht von IBM konnten Forscher fünf LLMs hypnotisieren: GPT-3.5, GPT-4, BARD, mpt-7b und mpt-30b (beides Modelle des KI-Unternehmens HuggingFace). Sie fanden heraus, dass nur gutes Englisch nötig war, um die LLMs auszutricksen und das gewünschte Ergebnis zu erzielen.

„Wir haben gelernt, dass Englisch im Wesentlichen zu einer ‚Programmiersprache‘ für Malware geworden ist. Mit LLMs müssen sich Angreifer nicht mehr auf Go, JavaScript, Python usw. verlassen, um bösartigen Code zu erstellen, sie müssen nur noch verstehen, wie sie effektiv vorgehen.“ „Befehl und Eingabeaufforderung für ein LLM auf Englisch“, sagte Chenta Lee, Chefarchitektin für Bedrohungsintelligenz bei IBM.Er sagte, dass anstelle von Data Poisoning, einer Praxis, bei der ein Bedrohungsakteur bösartige Daten in das LLM einschleust, um es zu manipulieren und zu kontrollieren, die Hypnotisierung des LLM es Angreifern leichter macht, die Technologie auszunutzen.Laut Lee konnten Forscher durch Hypnose LLMs dazu bringen, vertrauliche Finanzinformationen anderer Benutzer preiszugeben, anfälligen Code zu erstellen, bösartigen Code zu erstellen und schwache Sicherheitsempfehlungen anzubieten. Wie erging es den LLMs?
Laut Lee fielen nicht alle LLMs den Testszenarien zum Opfer. GPT-3.5 und GPT-4 von OpenAI ließen sich leichter dazu verleiten, falsche Antworten zu geben oder ein Spiel zu spielen, das nie endete, als Googles Bard und ein HuggingFace-Modell.GPT-3.5 und GPT-4 ließen sich leicht dazu verleiten, bösartigen Quellcode zu schreiben, während Google Bard ein langsames Kind war und daran erinnert werden musste. Nur GPT-4 verstand die Regeln ausreichend, um ungenaue Antworten zu liefern.Wer ist gefährdet?
Der Bericht stellte fest, dass die breite Öffentlichkeit die wahrscheinlichste Zielgruppe ist, die Opfer hypnotisierter LLMs wird. Dies ist auf die Konsumerisierung und den Hype um LLMs zurückzuführen und darauf, dass viele Verbraucher die von KI-Chatbots produzierten Informationen bedenkenlos akzeptieren. Da Chatbots für die Arbeit leicht verfügbar sind, neigen Menschen dazu, Rat zu „Online-Sicherheit, bewährten Sicherheitspraktiken und Passworthygiene“ einzuholen, was Angreifern die Möglichkeit bietet, fehlerhafte Antworten zu geben, die die Sicherheitslage der Verbraucher schwächen.Darüber hinaus sind auch viele kleine und mittlere Unternehmen gefährdet, die nicht über ausreichende Sicherheitsressourcen verfügen.



Ende des Artikels

gn-tech