Meta erweitert Gesichtserkennungstests als Anti-Betrugs-Maßnahme zur Bekämpfung von Promi-Betrugsanzeigen und im weiteren Sinne, gab der Facebook-Eigentümer am Montag bekannt.
Monika Bickert, Vizepräsidentin für Inhaltsrichtlinien bei Meta, schrieb in einem Blogbeitrag, dass einige der Tests darauf abzielen, die bestehenden Anti-Betrugs-Maßnahmen zu verstärken, wie etwa die automatisierten Scans (unter Verwendung von Klassifikatoren für maschinelles Lernen), die im Rahmen des Anzeigenüberprüfungssystems durchgeführt werden Machen Sie es Betrügern schwerer, unter ihrem Radar zu fliehen und Facebook- und Instagram-Nutzer dazu zu verleiten, auf gefälschte Anzeigen zu klicken.
„Betrüger versuchen oft, Bilder von Persönlichkeiten des öffentlichen Lebens, etwa von Inhaltserstellern oder Prominenten, zu verwenden, um Menschen dazu zu verleiten, mit Anzeigen zu interagieren, die zu Betrugswebsites führen, auf denen sie aufgefordert werden, persönliche Informationen preiszugeben oder Geld zu senden. Dieses Schema, das allgemein als „Promi-Köder“ bezeichnet wird, verstößt gegen unsere Richtlinien und ist schlecht für die Menschen, die unsere Produkte verwenden“, schrieb sie.
„Natürlich sind in vielen seriösen Anzeigen Prominente zu sehen. Da Promi-Köder-Werbung jedoch oft so gestaltet ist, dass sie echt aussieht, ist es nicht immer einfach, sie zu erkennen.“
Die Tests scheinen die Gesichtserkennung als Rückhalt zu nutzen, um Anzeigen zu überprüfen, die von bestehenden Meta-Systemen als verdächtig gekennzeichnet werden, wenn sie das Bild einer Persönlichkeit des öffentlichen Lebens enthalten, die dem Risiko einer sogenannten „Promi-Köderei“ ausgesetzt ist.
„Wir werden versuchen, Gesichtserkennungstechnologie zu verwenden, um Gesichter in der Anzeige mit den Facebook- und Instagram-Profilbildern der Person des öffentlichen Lebens zu vergleichen“, schrieb Bickert. „Wenn wir eine Übereinstimmung bestätigen und feststellen, dass es sich bei der Anzeige um einen Betrug handelt, blockieren wir sie.“
Meta behauptet, dass die Funktion zu keinem anderen Zweck als der Bekämpfung betrügerischer Werbung verwendet wird. „Wir löschen sofort alle Gesichtsdaten, die aus Anzeigen für diesen einmaligen Vergleich generiert werden, unabhängig davon, ob unser System eine Übereinstimmung findet, und wir verwenden sie nicht für andere Zwecke“, sagte sie.
Das Unternehmen sagte, erste Tests des Ansatzes – mit „einer kleinen Gruppe von Prominenten und Persönlichkeiten des öffentlichen Lebens“ (es wurde nicht angegeben, wer) – hätten „vielversprechende“ Ergebnisse bei der Verbesserung der Geschwindigkeit und Wirksamkeit der Erkennung und Durchsetzung dieser Art von Betrug gezeigt.
Meta teilte Tech außerdem mit, dass der Einsatz von Gesichtserkennung wirksam sei, um Deepfake-Betrugsanzeigen zu erkennen, bei denen generative KI zur Erstellung von Bildern berühmter Personen eingesetzt wurde.
Dem Social-Media-Riesen wird seit vielen Jahren vorgeworfen, dass er es nicht geschafft hat, Betrüger daran zu hindern, die Gesichter berühmter Personen zu missbrauchen, um über seine Werbeplattform Betrügereien wie dubiose Krypto-Investitionen an ahnungslose Nutzer zu schleusen. Daher ist es ein interessanter Zeitpunkt für Meta, jetzt auf Gesichtserkennung basierende Betrugsbekämpfungsmaßnahmen für dieses Problem voranzutreiben, zu einer Zeit, in der das Unternehmen gleichzeitig versucht, so viele Benutzerdaten wie möglich zu erfassen, um seine kommerziellen KI-Modelle zu trainieren (im Rahmen von der breitere branchenweite Kampf um die Entwicklung generativer KI-Tools).
In den kommenden Wochen wird Meta damit beginnen, In-App-Benachrichtigungen für eine größere Gruppe von Persönlichkeiten des öffentlichen Lebens anzuzeigen, die von Promi-Ködern betroffen sind, um sie darüber zu informieren, dass sie in das System aufgenommen werden.
„Personen des öffentlichen Lebens, die sich für diesen Schutz angemeldet haben, können sich jederzeit in ihrem Account Center abmelden“, bemerkte Bickert.
Meta testet auch den Einsatz der Gesichtserkennung zur Erkennung von Konten von Prominenten – zum Beispiel, wenn Betrüger versuchen, sich auf der Plattform als Persönlichkeiten des öffentlichen Lebens auszugeben, um ihre Betrugsmöglichkeiten zu erhöhen –, indem sie wiederum KI verwenden, um Profilbilder auf einem verdächtigen Konto mit denen eines zu vergleichen Facebook- und Instagram-Profilbilder von Personen des öffentlichen Lebens.
„Wir hoffen, diesen und andere neue Ansätze bald testen zu können“, fügte Bickert hinzu.
Video-Selfies plus KI zum Entsperren des Kontos
Darüber hinaus hat Meta angekündigt, dass es den Einsatz von Gesichtserkennung bei Video-Selfies testet, um eine schnellere Kontoentsperrung für Personen zu ermöglichen, deren Facebook-/Instagram-Konten nach der Übernahme durch Betrüger gesperrt wurden (z. B. wenn eine Person wurden dazu verleitet, ihre Passwörter preiszugeben).
Dies scheint die Benutzer anzusprechen, indem der offensichtliche Nutzen der Gesichtserkennungstechnologie für die Identitätsüberprüfung hervorgehoben wird – wobei Meta impliziert, dass dies eine schnellere und einfachere Möglichkeit ist, wieder Zugriff auf das Konto zu erhalten, als das Hochladen eines Bildes eines von der Regierung ausgestellten Ausweises (was üblich ist). Route zum Freischalten des Zugriffs (Zugriff jetzt).
„Die Video-Selfie-Verifizierung erweitert die Möglichkeiten für Personen, wieder Zugriff auf ihr Konto zu erhalten, dauert nur eine Minute und ist die einfachste Möglichkeit für Personen, ihre Identität zu überprüfen“, sagte Bickert. „Obwohl wir wissen, dass Hacker weiterhin versuchen werden, Tools zur Kontowiederherstellung auszunutzen, wird diese Überprüfungsmethode für Hacker letztendlich schwieriger zu missbrauchen sein als die herkömmliche dokumentenbasierte Identitätsüberprüfung.“
Die auf Gesichtserkennung basierende Video-Selfie-Identifizierungsmethode, die Meta testet, erfordert, dass der Benutzer ein Video-Selfie hochlädt, das dann mithilfe der Gesichtserkennungstechnologie verarbeitet wird, um das Video mit Profilbildern des Kontos zu vergleichen, auf das er zugreifen möchte.
Meta behauptet, dass die Methode der Identitätsüberprüfung ähnelt, die zum Entsperren eines Telefons oder zum Zugriff auf andere Apps verwendet wird, beispielsweise Apples FaceID auf dem iPhone. „Sobald jemand ein Video-Selfie hochlädt, wird es verschlüsselt und sicher gespeichert“, fügte Bickert hinzu. „Es wird niemals in ihrem Profil, für Freunde oder andere Leute auf Facebook oder Instagram sichtbar sein. Wir löschen sofort alle nach diesem Vergleich generierten Gesichtsdaten, unabhängig davon, ob eine Übereinstimmung vorliegt oder nicht.“
Benutzer dazu zu zwingen, ein Video-Selfie zur Identitätsprüfung hochzuladen und zu speichern, könnte für Meta eine Möglichkeit sein, sein Angebot im Bereich der digitalen Identität zu erweitern – sofern sich genügend Benutzer für das Hochladen ihrer biometrischen Daten entscheiden.
Keine Tests in Großbritannien oder der EU – vorerst
Alle diese Gesichtserkennungstests werden laut Meta weltweit durchgeführt. Allerdings stellte das Unternehmen ziemlich auffällig fest, dass die Tests derzeit nicht in Großbritannien oder der Europäischen Union stattfinden, wo umfassende Datenschutzbestimmungen gelten. (Im konkreten Fall der Biometrie zur Identitätsüberprüfung verlangt der Datenschutzrahmen des Blocks für einen solchen Anwendungsfall die ausdrückliche Zustimmung der betroffenen Personen.)
Vor diesem Hintergrund scheinen die Tests von Meta in eine umfassendere PR-Strategie zu passen, die das Unternehmen in den letzten Monaten in Europa entwickelt hat, um lokale Gesetzgeber unter Druck zu setzen, den Schutz der Privatsphäre der Bürger abzuschwächen. Dieses Mal ist der Grund, auf den sie sich beruft, um auf eine uneingeschränkte Datenverarbeitung für KI zu drängen, nicht eine (eigennützige) Vorstellung von Datenvielfalt oder Ansprüche darauf verlorenes Wirtschaftswachstum aber das einfachere Ziel ist die Bekämpfung von Betrügern.
„Wir arbeiten mit der britischen Regulierungsbehörde, politischen Entscheidungsträgern und anderen Experten zusammen, während die Tests voranschreiten“, sagte Meta-Sprecher Andrew Devoy gegenüber Tech. „Wir werden weiterhin das Feedback von Experten einholen und Anpassungen vornehmen, wenn sich die Funktionen weiterentwickeln.“
Während die Verwendung der Gesichtserkennung für einen begrenzten Sicherheitszweck für einige akzeptabel sein könnte – und für Meta im Rahmen der bestehenden Datenschutzbestimmungen tatsächlich möglich sein könnte – ist die Verwendung von Personendaten zum Trainieren kommerzieller KI-Modelle ein ganz anderes Problem.