Wie Cyberkriminelle KI missbrauchen
Er wies darauf hin, dass die Behörde beobachtet habe, dass KI „in Phishing-E-Mails oder gezielterer Erstellung von E-Mails, in bösartigem Code (und) in Fehlinformationen und Desinformationen“ eingesetzt werde. Khoury machte keine Angaben oder Beweise dafür, wie Cyberkriminelle KI missbrauchen. Diese Behauptung verstärkt jedoch die Sorge, dass Cyberkriminelle bereits damit begonnen haben, diese neue Technologie zu nutzen.
Khoury stellte fest, dass der Einsatz von KI zum Entwerfen von Schadcode noch in den Kinderschuhen steckt. „Es liegt noch ein weiter Weg vor uns, denn es erfordert viel, einen guten Exploit zu schreiben.“ Khoury ist besorgt über die Geschwindigkeit, mit der sich KI-Modelle weiterentwickeln. Er weist darauf hin, dass es bei dieser Geschwindigkeit schwierig sein wird, das Schadpotenzial dieser Modelle zu kontrollieren, bevor sie für normale Benutzer freigegeben werden.
Cybersicherheitswächter über die Risiken von KI
Cybersicherheitswächter aus mehreren Ländern haben bereits Berichte veröffentlicht, die vor den Risiken von KI warnen. Cyber-Beamte haben speziell vor großen Sprachmodellen (LLMs) gewarnt. Diese sich schnell entwickelnden Sprachverarbeitungsprogramme durchsuchen riesige Textmengen, um menschenähnliche Dialoge, Dokumente und mehr zu generieren.
März, Europol veröffentlichte einen Bericht darüber, dass ChatGPT von OpenAI von Cyberkriminellen missbraucht werden kann. Die europäische Polizeiorganisation sagte, dass dieses generative KI-Modell es ermöglichte, „sich auf äußerst realistische Weise als eine Organisation oder Einzelperson auszugeben, selbst wenn man nur über grundlegende Kenntnisse der englischen Sprache verfügt“.
Später in Großbritannien Nationales Zentrum für Cybersicherheit hat einen Blog-Beitrag aktualisiert, in dem hervorgehoben wird, dass Kriminelle „LLMs nutzen könnten, um bei Cyber-Angriffen zu helfen, die über ihre derzeitigen Möglichkeiten hinausgehen“.
Cybersicherheitsforscher haben außerdem verschiedene potenziell bösartige Anwendungsfälle aufgezeigt. Einige Forscher erwähnten auch, dass sie verdächtige KI-generierte Inhalte gesehen hätten. Letzte Woche entdeckte ein ehemaliger Hacker eine LLM auf bösartiges Material geschult. Mit diesem Modell gelang es ihm auch, eine E-Mail zu verfassen, um Benutzer zu einer Geldüberweisung zu verleiten.
Das LLM verfasste eine E-Mail mit drei Absätzen, in der es sein Ziel um Hilfe bei einer dringenden Rechnung bat.
„Ich verstehe, dass dies möglicherweise kurzfristig ist“, sagte der LLM, „aber diese Zahlung ist unglaublich wichtig und muss in den nächsten 24 Stunden erfolgen.“