Neuer KI-Betrug zielt auf Inder ab: Alle Details

Neuer KI Betrug zielt auf Inder ab Alle Details
Mit dem Anstieg der Popularität und Akzeptanz von künstliche Intelligenz (KI)-Tools ist es jetzt einfacher, Bilder, Videos und Stimmen von Freunden und Familienmitgliedern zu manipulieren. Anfang dieses Jahres wurde berichtet, dass Cyberkriminelle KI-gestützte Stimme verwenden, um Menschen anzugreifen. Laut einem neuen Bericht führt Indien die Liste der Opfer an.
Betrüger verwenden KI, um wie Familienmitglieder in Not zu klingen, und Inder fallen auf solche Betrügereien herein. Laut einem Bericht von McAfee glauben mehr als die Hälfte (69 %) der Inder, dass sie den Unterschied zwischen einer KI-Stimme und einer echten Stimme nicht kennen oder nicht erkennen können.
Darüber hinaus hat etwa die Hälfte (47 %) der indischen Erwachsenen Erfahrungen mit KI gemacht oder kennt jemanden, der Erfahrungen mit KI gemacht hat Voice-Betrugwas fast doppelt so hoch ist wie der weltweite Durchschnitt (25 %), heißt es in dem Bericht mit dem Titel „The Artificial Imposter“.

„Die KI-Technologie fördert einen Anstieg von Online-Sprachbetrug, wobei nur drei Sekunden Audio erforderlich sind, um die Stimme einer Person zu klonen. Die Umfrage wurde mit 7.054 Personen aus sieben Ländern, einschließlich Indien, durchgeführt“, betonte der Bericht.
Indianer verlieren Geld
Laut einem McAfee-Bericht gaben 83 % der indischen Opfer an, einen Geldverlust erlitten zu haben – wobei 48 % über 50.000 Rupien verloren haben.
„Künstliche Intelligenz bietet unglaubliche Möglichkeiten, aber bei jeder Technologie besteht immer das Potenzial, dass sie böswillig in den falschen Händen eingesetzt wird. Das sehen wir heute mit dem Zugang und der Benutzerfreundlichkeit von KI-Tools, die Cyberkriminellen dabei helfen, ihre Bemühungen auf immer überzeugendere Weise zu skalieren“, sagte Steve Grobman, CTO von McAfee.

Warum Klonen von KI-Stimmen ist gefährlich
Jede Stimme ist einzigartig, was im Wesentlichen bedeutet, dass sie das gesprochene Äquivalent eines biometrischen Fingerabdrucks ist. Daher ist das Sprechen ein anerkannter Weg, um Vertrauen aufzubauen.
Aber da 86 % der indischen Erwachsenen ihre Sprachdaten mindestens einmal pro Woche online oder in aufgezeichneten Notizen (über soziale Medien, Sprachnotizen und mehr) teilen, ist das Klonen von Stimmen zu einem mächtigen Werkzeug für Cyberkriminelle geworden.
Weitere Ergebnisse des Berichts
McAfee sagte, dass mehr als die Hälfte (66 %) der indischen Befragten angaben, dass sie auf eine Voicemail oder Sprachnotiz antworten würden, die angeblich von einem Freund oder einer geliebten Person stammt, die Geld braucht.

„Insbesondere, wenn sie dachten, die Anfrage käme von ihren Eltern (46 %), ihrem Partner oder Ehepartner (34 %) oder ihrem Kind (12 %). Nachrichten, die am wahrscheinlichsten eine Antwort hervorriefen, waren diejenigen, die behaupteten, der Absender sei ausgeraubt worden (70 %).
Es gab einen Anstieg von Deepfakes und Desinformationen, was dazu geführt hat, dass die Menschen vorsichtiger sind, was sie online sehen. Laut der Umfrage gaben 27 % der indischen Erwachsenen an, dass sie den sozialen Medien jetzt weniger vertrauen als je zuvor, und 43 % sind besorgt über die Zunahme von Fehlinformationen oder Desinformationen.

toi-tech