Das jüngste Modell aus Deepseek, der chinesischen KI-Firma, das Silicon Valley und Wall Street erschüttert, kann manipuliert werden, um schädliche Inhalte wie Pläne für einen Biowaffen-Angriff und eine Kampagne zur Förderung der Selbstverletzung zwischen Teenagern zu produzieren. Laut dem Wall Street Journal.
Sam Rubin, Senior Vice President bei Palo Alto Networks ‚Threat Intelligence and Incident Response Division Unit 42, sagte dem Journal, dass Deepseek „anfälliger für Jailbreaking ist [i.e., being manipulated to produce illicit or dangerous content] als andere Modelle. “
Das Journal testete auch das R1 -Modell von Deepseek selbst. Obwohl es grundlegende Schutzmaßnahmen zu geben schien, überzeugte Journal Deepseek erfolgreich, eine Social -Media -Kampagne zu entwerfen, die in den Worten des Chatbots „den Wunsch der Jugendlichen nach Zugehörigkeit vorangetrieben und emotionale Verletzlichkeit durch algorithmische Verstärkung waffen“.
Der Chatbot war Berichten zufolge auch davon überzeugt, Anweisungen für einen Biowaffen-Angriff zu geben, ein Pro-Hitler-Manifest zu schreiben und eine Phishing-E-Mail mit Malware-Code zu schreiben. Das Journal sagte, als ChatGPT genau die gleichen Eingabeaufforderungen zur Verfügung stellte, weigerte es sich, sich zu erfüllen.
Es war zuvor gemeldet Dass die Deepseek -App Themen wie den tianamen Platz oder die taiwanesische Autonomie vermeidet. Und Anthropic -CEO Dario Amodei sagte kürzlich, dass Deepseek bei einem Sicherheitstest von Bioweapons „das schlechteste“ durchgeführt habe.