KI-gestützte Betrügereien und was Sie dagegen tun können

KI hilft Ihnen, egal ob Sie eine E-Mail verfassen, ein Konzeptbild erstellen oder gefährdete Personen betrügen, indem Sie sie glauben lassen, Sie seien ein Freund oder Verwandter in Not. KI ist so vielseitig! Da manche Leute aber lieber nicht betrogen werden möchten, wollen wir ein wenig darüber sprechen, worauf Sie achten sollten.

In den letzten Jahren hat sich nicht nur die Qualität der generierten Medien (von Text über Audio bis hin zu Bildern und Videos) enorm verbessert, sondern auch die Kosten und die Einfachheit, mit denen diese Medien erstellt werden können. Dieselbe Art von Tool, mit dem ein Konzeptkünstler Fantasy-Monster oder Raumschiffe erfinden oder ein Nicht-Muttersprachler sein Geschäftsenglisch verbessern kann, kann auch für missbräuchliche Zwecke eingesetzt werden.

Erwarten Sie nicht, dass der Terminator an Ihre Tür klopft und Ihnen ein Schneeballsystem aufschwatzen wird – es handelt sich hier um dieselben alten Betrügereien, mit denen wir seit Jahren konfrontiert sind, allerdings mit einem Twist durch generative KI, der sie einfacher, billiger oder überzeugender macht.

Dies ist keinesfalls eine vollständige Liste, sondern nur eine Auswahl der offensichtlichsten Tricks, die KI verbessern kann. Wir werden neue Tricks hinzufügen, sobald sie auftauchen, oder weitere Schritte auflisten, die Sie unternehmen können, um sich zu schützen.

Stimmenklonen von Familie und Freunden

Synthetische Stimmen gibt es schon seit Jahrzehnten, aber erst in den letzten ein oder zwei Jahren haben technische Fortschritte es ermöglicht, aus nur wenigen Sekunden Audiomaterial eine neue Stimme zu erzeugen. Das bedeutet, dass jeder, dessen Stimme jemals öffentlich übertragen wurde – beispielsweise in einem Nachrichtenbericht, einem YouTube-Video oder in sozialen Medien –, Gefahr läuft, geklont zu werden.

Betrüger können diese Technologie nutzen und haben sie auch schon genutzt, um überzeugende gefälschte Versionen von geliebten Menschen oder Freunden zu erstellen. Diese können natürlich alles Mögliche sagen, aber im Rahmen eines Betrugs erstellen sie höchstwahrscheinlich einen Sprachclip mit der Bitte um Hilfe.

Ein Elternteil könnte beispielsweise eine Voicemail von einer unbekannten Nummer erhalten, die wie die ihres Sohnes klingt. Darin wird mitgeteilt, dass ihre Sachen auf Reisen gestohlen wurden, dass ihnen jemand ihr Telefon überlassen hat und dass Mama oder Papa etwas Geld an diese Adresse, diesen Venmo-Empfänger, dieses Unternehmen usw. schicken könnten. Man kann sich problemlos Varianten im Zusammenhang mit Autoproblemen („Sie geben mein Auto nicht frei, bis sie jemand bezahlt“), medizinischen Problemen („Diese Behandlung wird nicht von der Versicherung übernommen“) usw. vorstellen.

Diese Art von Betrug wurde bereits mit der Stimme von Präsident Biden durchgeführt! Die Täter wurden gefasst, aber zukünftige Betrüger werden vorsichtiger sein.

Wie können Sie sich gegen das Klonen von Stimmen wehren?

Versuchen Sie zunächst gar nicht erst, eine gefälschte Stimme zu erkennen. Sie werden jeden Tag besser und es gibt viele Möglichkeiten, Qualitätsprobleme zu verschleiern. Sogar Experten lassen sich täuschen!

Alles, was von einer unbekannten Nummer, E-Mail-Adresse oder einem unbekannten Konto kommt, sollte automatisch als verdächtig angesehen werden. Wenn sich jemand als Ihr Freund oder geliebter Mensch ausgibt, kontaktieren Sie die Person wie gewohnt. Sie werden Ihnen wahrscheinlich sagen, dass es ihr gut geht und dass es sich (wie Sie vermutet haben) um einen Betrug handelt.

Betrüger neigen dazu, nicht nachzuhaken, wenn sie ignoriert werden – ein Familienmitglied tut das wahrscheinlich. Es ist in Ordnung, eine verdächtige Nachricht auf „Gelesen“ zu belassen, während Sie nachdenken.

Personalisiertes Phishing und Spam per E-Mail und Messaging

Wir alle erhalten ab und zu Spam, aber die textgenerierende KI macht es möglich, Massen-E-Mails zu versenden, die an jeden Einzelnen angepasst sind. Da es regelmäßig zu Datenlecks kommt, sind viele Ihrer persönlichen Daten im Umlauf.

Es ist eine Sache, eine dieser betrügerischen E-Mails mit dem Inhalt „Klicken Sie hier, um Ihre Rechnung anzuzeigen!“ und offensichtlich furchteinflößenden Anhängen zu erhalten, die so wenig Aufwand erfordern. Aber mit nur ein wenig Kontext werden sie plötzlich ziemlich glaubwürdig, indem sie anhand von kürzlichen Aufenthaltsorten, Einkäufen und Gewohnheiten den Eindruck erwecken, es handele sich um eine echte Person oder ein echtes Problem. Ausgestattet mit ein paar persönlichen Fakten kann ein Sprachmodell eine generische Version dieser E-Mails in Sekundenschnelle an Tausende von Empfängern anpassen.

Was früher „Lieber Kunde, Ihre Rechnung finden Sie im Anhang“ war, wird zu etwas wie „Hallo Doris! Ich bin vom Promotionsteam von Etsy. Ein Artikel, den Sie sich kürzlich angesehen haben, ist jetzt um 50 % reduziert! Und der Versand an Ihre Adresse in Bellingham ist kostenlos, wenn Sie diesen Link verwenden, um den Rabatt in Anspruch zu nehmen.“ Ein einfaches Beispiel, aber trotzdem. Mit einem echten Namen, Einkaufsgewohnheiten (leicht herauszufinden), einem allgemeinen Standort (ebenfalls) usw. ist die Nachricht plötzlich viel weniger offensichtlich.

Letzten Endes sind das immer noch Spam. Aber diese Art von maßgeschneidertem Spam musste früher von schlecht bezahlten Leuten auf Content-Farmen im Ausland erstellt werden. Heute kann das in großem Maßstab von einem LLM mit besseren Prosakenntnissen als viele professionelle Autoren erledigt werden!

Wie können Sie E-Mail-Spam bekämpfen?

Wie bei herkömmlichem Spam ist Wachsamkeit Ihre beste Waffe. Aber erwarten Sie nicht, dass Sie generierten Text von einem von Menschen geschriebenen unterscheiden können. Es gibt nur wenige, die das können, und schon gar nicht (trotz der Behauptungen einiger Unternehmen und Dienste) ein anderes KI-Modell.

So verbessert der Text auch sein mag, diese Art von Betrug hat immer noch das grundlegende Problem, Sie dazu zu bringen, fragwürdige Anhänge oder Links zu öffnen. Wie immer gilt: Klicken oder öffnen Sie nichts, es sei denn, Sie sind sich der Echtheit und Identität des Absenders zu 100 % sicher. Wenn Sie auch nur ein bisschen unsicher sind – und das ist ein guter Instinkt, den Sie sich aneignen sollten –, klicken Sie nicht, und wenn Sie jemanden haben, der sich auskennt und an den Sie die Nachricht für ein zweites Paar Augen weiterleiten können, tun Sie das.

„Fake You“-Identitäts- und Verifizierungsbetrug

Angesichts der vielen Datendiebstähle in den letzten Jahren (danke, Equifax!) kann man mit Sicherheit davon ausgehen, dass fast jeder von uns eine beträchtliche Menge an persönlichen Daten im Darknet herumschwirren lässt. Wenn Sie gute Online-Sicherheitspraktiken befolgen, wird ein Großteil der Gefahr gemindert, indem Sie Ihre Passwörter ändern, die Multi-Faktor-Authentifizierung aktivieren usw. Aber generative KI könnte in diesem Bereich eine neue und ernsthafte Bedrohung darstellen.

Da online so viele Daten über eine Person verfügbar sind und bei vielen sogar ein oder zwei Clips ihrer Stimme vorhanden sind, wird es immer einfacher, eine KI-Persona zu erstellen, die wie eine Zielperson klingt und Zugriff auf viele der Fakten hat, die zur Identitätsüberprüfung verwendet werden.

Stellen Sie sich das einmal so vor. Was würden Sie tun, wenn Sie Probleme beim Anmelden hätten, Ihre Authentifizierungs-App nicht richtig konfigurieren könnten oder Ihr Telefon verloren hätten? Wahrscheinlich würden Sie den Kundendienst anrufen – und dort würde man Ihre Identität anhand einiger trivialer Daten wie Ihrem Geburtsdatum, Ihrer Telefonnummer oder Sozialversicherungsnummer „verifizieren“. Sogar fortgeschrittenere Methoden wie „ein Selfie machen“ lassen sich immer leichter manipulieren.

Der Kundendienstmitarbeiter – soweit wir wissen, ebenfalls eine KI! – kommt diesem falschen Ich möglicherweise entgegen und gewährt ihm alle Privilegien, die Sie hätten, wenn Sie tatsächlich angerufen hätten. Was er von dieser Position aus tun kann, ist sehr unterschiedlich, aber nichts davon ist gut!

Wie bei den anderen auf dieser Liste besteht die Gefahr nicht so sehr darin, wie realistisch diese falsche Identität ist, sondern darin, dass es für Betrüger einfach ist, diese Art von Angriffen in großem Umfang und wiederholt durchzuführen. Vor nicht allzu langer Zeit war diese Art von Identitätsbetrug teuer und zeitaufwändig und daher auf hochkarätige Ziele wie reiche Leute und CEOs beschränkt. Heutzutage können Sie einen Workflow erstellen, der Tausende von Identitätsbetrugsagenten mit minimaler Aufsicht erstellt, und diese Agenten können autonom die Kundendienstnummern aller bekannten Konten einer Person anrufen – oder sogar neue erstellen! Nur eine Handvoll muss erfolgreich sein, um die Kosten des Angriffs zu rechtfertigen.

Wie können Sie sich gegen Identitätsbetrug wehren?

Genau wie vor der Einführung der KIs, die Betrügern bei der Arbeit halfen, ist „Cybersicherheit 101“ Ihre beste Wahl. Ihre Daten sind bereits da draußen; Sie können die Zahnpasta nicht mehr in die Tube zurückfüllen. Aber Sie dürfen Stellen Sie sicher, dass Ihre Konten ausreichend vor den offensichtlichsten Angriffen geschützt sind.

Die Multi-Faktor-Authentifizierung ist der wichtigste Schritt, den Sie hier unternehmen können. Jede Art von ernsthafter Kontoaktivität wird direkt auf Ihr Telefon übertragen und verdächtige Anmeldungen oder Versuche, Passwörter zu ändern, werden in E-Mails angezeigt. Ignorieren Sie diese Warnungen nicht und markieren Sie sie nicht als Spam, auch (und vor allem!) wenn Sie viele davon erhalten.

KI-generierte Deepfakes und Erpressung

Die vielleicht gruseligste Form des aufkommenden KI-Betrugs ist die Möglichkeit der Erpressung mithilfe von Deepfake-Bildern von Ihnen oder einem geliebten Menschen. Diese futuristische und erschreckende Aussicht können Sie der schnelllebigen Welt der offenen Bildmodelle verdanken! Menschen, die sich für bestimmte Aspekte der hochmodernen Bilderzeugung interessieren, haben Workflows entwickelt, die nicht nur zum Rendern nackter Körper dienen, sondern diese auch an jedes Gesicht anhängen, von dem sie ein Bild bekommen können. Ich muss nicht näher darauf eingehen, wie diese bereits eingesetzt werden.

Eine unbeabsichtigte Folge ist jedoch eine Ausweitung des Betrugs, der gemeinhin als „Racheporno“ bezeichnet wird, aber genauer als nicht einvernehmliche Verbreitung intimer Bilder beschrieben wird (obwohl es wie bei „Deepfake“ schwierig sein dürfte, den ursprünglichen Begriff zu ersetzen). Wenn private Bilder einer Person entweder durch Hackerangriffe oder einen rachsüchtigen Ex veröffentlicht werden, können sie von Dritten als Erpressungsmittel verwendet werden, die drohen, sie weithin zu veröffentlichen, wenn nicht eine bestimmte Summe gezahlt wird.

KI verbessert diesen Betrug, indem sie dafür sorgt, dass gar keine wirklich intimen Bilder vorhanden sein müssen! Das Gesicht eines beliebigen Menschen kann zu einem von KI generierten Körper hinzugefügt werden, und obwohl die Ergebnisse nicht immer überzeugend sind, reicht es wahrscheinlich aus, Sie oder andere zu täuschen, wenn es verpixelt, niedrig aufgelöst oder anderweitig teilweise verschleiert ist. Und das ist alles, was nötig ist, um jemanden dazu zu bringen, für die Geheimhaltung zu zahlen – obwohl die erste Zahlung, wie bei den meisten Erpressungsbetrügereien, wahrscheinlich nicht die letzte sein wird.

Wie können Sie gegen KI-generierte Deepfakes vorgehen?

Leider bewegen wir uns auf eine Welt zu, in der gefälschte Nacktbilder von fast jedem auf Abruf verfügbar sein werden. Das ist beängstigend, merkwürdig und ekelhaft, aber leider ist die Katze hier aus dem Sack.

Außer den Bösewichten ist niemand glücklich über diese Situation. Aber es gibt ein paar Dinge, die für uns potenzielle Opfer sprechen. Es mag ein schwacher Trost sein, aber diese Bilder zeigen nicht wirklich Sie, und es braucht keine echten Nacktbilder, um das zu beweisen. Diese Bildmodelle können in gewisser Weise realistische Körper produzieren, aber wie andere generative KI wissen sie nur, womit sie trainiert wurden. So werden den gefälschten Bildern beispielsweise keine Unterscheidungsmerkmale fehlen und sie sind wahrscheinlich auch in anderer Hinsicht offensichtlich falsch.

Und obwohl die Bedrohung wahrscheinlich nie ganz verschwinden wird, gibt es für die Opfer immer mehr Möglichkeiten, sich dagegen zu wehren. Sie können Bildhoster rechtlich dazu zwingen, Bilder zu entfernen oder Betrüger von den Websites zu verbannen, auf denen sie ihre Bilder posten. Mit dem wachsenden Problem werden auch die rechtlichen und privaten Mittel, es zu bekämpfen, zunehmen.

Tech ist kein Anwalt! Aber wenn Sie Opfer eines solchen Vorfalls sind, informieren Sie die Polizei. Es handelt sich nicht nur um Betrug, sondern um Belästigung, und obwohl Sie von Polizisten nicht erwarten können, dass sie die Art von Internet-Detektivarbeit leisten, die nötig ist, um jemanden aufzuspüren, werden diese Fälle manchmal gelöst, oder die Betrüger werden durch Anfragen, die an ihren ISP oder Forum-Host gesendet werden, verschreckt.

tch-1-tech