Microsoft hat gezeigt, dass US-Gegner – in erster Linie Iran Und Nord Korea, mit geringerer Beteiligung Russlands und Chinas, nutzen zunehmend generative künstliche Intelligenz (KI), um offensive Cyberoperationen durchzuführen. Diese Gegner haben begonnen, Hebelwirkung auszunutzen KI Technologie zur Orchestrierung von Angriffen, und Microsoft hat in Zusammenarbeit mit dem Geschäftspartner ChatGPT-Hersteller OpenAI diese Bedrohungen erkannt und vereitelt.
In einem Blogbeitrag betonte das in Redmond ansässige Unternehmen, dass sich diese Techniken zwar noch in einem „frühen Stadium“ befänden, aber weder „besonders neuartig noch einzigartig“ seien. Dennoch hielt Microsoft es für entscheidend, sie öffentlich zu machen. Während US-Konkurrenten großsprachige Modelle nutzen, um ihre Fähigkeiten zum Durchbrechen von Netzwerken zu erweitern und Einflussoperationen durchzuführen, wird Transparenz von entscheidender Bedeutung.
Seit Jahren nutzen Cybersicherheitsfirmen maschinelles Lernen zur Verteidigung, vor allem um anomales Verhalten in Netzwerken zu erkennen. Allerdings haben sich auch böswillige Akteure – sowohl Kriminelle als auch offensive Hacker – diese Technologie zu eigen gemacht. Die Einführung großsprachiger Modelle, wie beispielsweise ChatGPT von OpenAI, hat das Katz-und-Maus-Spiel in der Cybersicherheitslandschaft verstärkt.
Die erhebliche Investition von Microsoft in OpenAI steht im Einklang mit seinem Engagement, die KI-Forschung voranzutreiben. Die Ankündigung fiel mit der Veröffentlichung eines Berichts zusammen, der die potenziellen Auswirkungen generativer KI auf böswilliges Social Engineering hervorhob. Während wir uns einem Jahr nähern, in dem in über 50 Ländern Wahlen abgehalten werden, ist die Gefahr von Desinformation groß, verschärft durch die Raffinesse von Deepfakes und Voice-Cloning.
Hier sind konkrete Beispiele, die Microsoft bereitgestellt hat. Das Unternehmen gab an, generative KI-Konten und Vermögenswerte, die mit benannten Gruppen verknüpft sind, deaktiviert zu haben:
Nordkorea: Die nordkoreanische Cyberspionagegruppe Kimsuky hat die Modelle genutzt, um ausländische Denkfabriken zu recherchieren, die das Land untersuchen, und um Inhalte zu generieren, die wahrscheinlich in Spear-Phishing-Hacking-Kampagnen verwendet werden.
Iran: Die iranischen Revolutionsgarden haben großsprachige Modelle verwendet, um beim Social Engineering, bei der Behebung von Softwarefehlern und sogar bei der Untersuchung, wie Eindringlinge der Entdeckung in einem kompromittierten Netzwerk entgehen könnten, zu helfen. Dazu gehört die Generierung von Phishing-E-Mails, „darunter eine, die vorgibt, von einer internationalen Entwicklungsagentur zu stammen, und eine andere, die versucht, prominente Feministinnen auf eine von Angreifern erstellte Website zum Thema Feminismus zu locken.“ Die KI trägt dazu bei, die E-Mail-Produktion zu beschleunigen und anzukurbeln.
Russland: Der russische GRU-Militärgeheimdienst, bekannt als Fancy Bear, hat die Modelle zur Erforschung von Satelliten- und Radartechnologien verwendet, die möglicherweise mit dem Krieg in der Ukraine in Zusammenhang stehen.
China: Die chinesische Cyberspionagegruppe Aquatic Panda, die ein breites Spektrum an Branchen, Hochschulen und Regierungen von Frankreich bis Malaysia ins Visier nimmt, hat mit den Modellen „auf eine Art und Weise interagiert, die darauf hindeutet, dass nur begrenzt untersucht wird, wie LLMs ihre technischen Abläufe verbessern können.“ ” Die chinesische Gruppe Maverick Panda, die seit mehr als einem Jahrzehnt unter anderem US-Verteidigungsunternehmen ins Visier nimmt, hatte Interaktionen mit großsprachigen Modellen, die darauf hindeuteten, dass sie deren Wirksamkeit als Informationsquelle „zu potenziell sensiblen Themen, hochkarätigen Personen und regionalen Personen“ bewerteten Geopolitik, US-Einfluss und innere Angelegenheiten.“
In einem Blogbeitrag betonte das in Redmond ansässige Unternehmen, dass sich diese Techniken zwar noch in einem „frühen Stadium“ befänden, aber weder „besonders neuartig noch einzigartig“ seien. Dennoch hielt Microsoft es für entscheidend, sie öffentlich zu machen. Während US-Konkurrenten großsprachige Modelle nutzen, um ihre Fähigkeiten zum Durchbrechen von Netzwerken zu erweitern und Einflussoperationen durchzuführen, wird Transparenz von entscheidender Bedeutung.
Seit Jahren nutzen Cybersicherheitsfirmen maschinelles Lernen zur Verteidigung, vor allem um anomales Verhalten in Netzwerken zu erkennen. Allerdings haben sich auch böswillige Akteure – sowohl Kriminelle als auch offensive Hacker – diese Technologie zu eigen gemacht. Die Einführung großsprachiger Modelle, wie beispielsweise ChatGPT von OpenAI, hat das Katz-und-Maus-Spiel in der Cybersicherheitslandschaft verstärkt.
Die erhebliche Investition von Microsoft in OpenAI steht im Einklang mit seinem Engagement, die KI-Forschung voranzutreiben. Die Ankündigung fiel mit der Veröffentlichung eines Berichts zusammen, der die potenziellen Auswirkungen generativer KI auf böswilliges Social Engineering hervorhob. Während wir uns einem Jahr nähern, in dem in über 50 Ländern Wahlen abgehalten werden, ist die Gefahr von Desinformation groß, verschärft durch die Raffinesse von Deepfakes und Voice-Cloning.
Hier sind konkrete Beispiele, die Microsoft bereitgestellt hat. Das Unternehmen gab an, generative KI-Konten und Vermögenswerte, die mit benannten Gruppen verknüpft sind, deaktiviert zu haben:
Nordkorea: Die nordkoreanische Cyberspionagegruppe Kimsuky hat die Modelle genutzt, um ausländische Denkfabriken zu recherchieren, die das Land untersuchen, und um Inhalte zu generieren, die wahrscheinlich in Spear-Phishing-Hacking-Kampagnen verwendet werden.
Iran: Die iranischen Revolutionsgarden haben großsprachige Modelle verwendet, um beim Social Engineering, bei der Behebung von Softwarefehlern und sogar bei der Untersuchung, wie Eindringlinge der Entdeckung in einem kompromittierten Netzwerk entgehen könnten, zu helfen. Dazu gehört die Generierung von Phishing-E-Mails, „darunter eine, die vorgibt, von einer internationalen Entwicklungsagentur zu stammen, und eine andere, die versucht, prominente Feministinnen auf eine von Angreifern erstellte Website zum Thema Feminismus zu locken.“ Die KI trägt dazu bei, die E-Mail-Produktion zu beschleunigen und anzukurbeln.
Russland: Der russische GRU-Militärgeheimdienst, bekannt als Fancy Bear, hat die Modelle zur Erforschung von Satelliten- und Radartechnologien verwendet, die möglicherweise mit dem Krieg in der Ukraine in Zusammenhang stehen.
China: Die chinesische Cyberspionagegruppe Aquatic Panda, die ein breites Spektrum an Branchen, Hochschulen und Regierungen von Frankreich bis Malaysia ins Visier nimmt, hat mit den Modellen „auf eine Art und Weise interagiert, die darauf hindeutet, dass nur begrenzt untersucht wird, wie LLMs ihre technischen Abläufe verbessern können.“ ” Die chinesische Gruppe Maverick Panda, die seit mehr als einem Jahrzehnt unter anderem US-Verteidigungsunternehmen ins Visier nimmt, hatte Interaktionen mit großsprachigen Modellen, die darauf hindeuteten, dass sie deren Wirksamkeit als Informationsquelle „zu potenziell sensiblen Themen, hochkarätigen Personen und regionalen Personen“ bewerteten Geopolitik, US-Einfluss und innere Angelegenheiten.“