Warum ChatGPT für jeden Internetnutzer gefährlich sein kann

Die Kolosseen von Elden Ring oeffnen morgen endlich im kostenlosen

ChatGPT hat weltweit Aufmerksamkeit für seine intuitiven Konversationsfähigkeiten erregt. Die auf künstlicher Intelligenz (KI) basierende Lösung, die von der unabhängigen Forschungseinrichtung OpenAI entwickelt wurde, stützt sich auf maschinelles Lernen für das Training. Es gibt Leute, die auf die Fähigkeiten des KI-Chatbots schwören, und diejenigen, die ihn einen losgelassenen Virus nennen. OpenAI CEO und Mitgründer Sam Altmann sagte, dass ChatGPT „unglaublich begrenzt ist“ und dass es ein Fehler sein könnte, sich zu sehr darauf zu verlassen. Ein neuer Bericht des Forschungsunternehmens CheckPoint zeigt jedoch, dass es Hackern helfen kann, Phishing-E-Mails und bösartige Codes zu schreiben.
ChatGPT birgt Risiken
ChatGPT wurde für seine Fähigkeit gelobt, gut geschriebenen Code zu generieren und den Entwicklungsprozess zu unterstützen. Der CheckPoint Research-Bericht zeigt, dass genau diese Fähigkeit der neuen Schnittstelle von OpenAI für sein Large Language Model (LLM) Cyberkriminellen bei ihren bösartigen Social-Engineering-Angriffsvektoren helfen kann, insbesondere wenn sich die Welt der Cybersicherheit schnell verändert.
„Es ist wichtig zu betonen, wie wichtig es ist, wachsam zu bleiben, wie diese neue und sich entwickelnde Technologie die Bedrohungslandschaft beeinflussen kann, sowohl im Guten als auch im Schlechten. Während diese neue Technologie Verteidigern hilft, senkt sie auch die erforderliche Eintrittsbarriere für gering qualifizierte Bedrohungsakteure Phishing-Kampagnen durchzuführen und Malware zu entwickeln“, heißt es in einem Bericht von CheckPoint Research.
Beispiele für schädlichen Code oder Dialoge, die von ChatGPT generiert wurden, finden Sie auf Twitter.

Wie Forscher mit ChatGPT eine E-Mail erstellt haben, die Ihren PC infizieren kann
Um die Fähigkeit von ChatGPT zum Erstellen von Code zu veranschaulichen, verwendete das Forschungsunternehmen ChatGPT und eine andere Plattform, die von OpenAI Kodexein KI-basiertes System, das natürliche Sprache in Code übersetzt, um einen vollständigen Infektionsfluss zu erzeugen.
„Wir haben keine einzige Codezeile geschrieben und stattdessen die KIs die ganze Arbeit erledigen lassen. Wir haben nur die Puzzleteile zusammengesetzt und den resultierenden Angriff ausgeführt“, sagten die Forscher. Forscher von CheckPoint erstellten mithilfe von Codex und ChatGPT „eine plausible Phishing-E-Mail“ – genau wie einige von uns unsere Aufgaben erstellten.
Lesen Sie auch: LaMDA-Lektion? Google sagt Nein zur Schaffung eines ChatGPT-Rivalen
Die Forscher baten ChatGPT, die E-Mail zu verfeinern und einen Link einzufügen, der die Kunden auffordert, eine Excel-Tabelle herunterzuladen. ChatGPT warnte das Team vor einem Verstoß gegen die Inhaltsrichtlinie, aber das Team fuhr fort, „einen Code zu schreiben, der kopiert und in eine Excel-Arbeitsmappe eingefügt werden kann, um eine ausführbare Datei von einer URL herunterzuladen und auszuführen“.
Dies führte zu einer harmlos aussehenden E-Mail mit einem Link, der eine schädliche Excel-Datei herunterlädt, mit der ein Computer infiziert werden kann. „Obwohl der Code und der Infektionsfluss, die in diesem Artikel vorgestellt werden, mit einfachen Verfahren verteidigt werden können, ist dies nur ein elementares Beispiel für die Auswirkungen der KI-Forschung auf die Cybersicherheit“, sagten die Forscher.

Ist ChatGPT der Google-Killer? | OpenAI-ChatGPT

toi-tech