Les dangers de la reconnaissance faciale pour la vie privée Ils sont évidents. En fait, les informations selon lesquelles un groupe de pirates informatiques profitent de cette technologie pour commettre des délits sont de plus en plus courantes. Cette même semaine, un vol inhabituel d’un million de dollars a été rendu public : un employé a été trompé par des deepfakes de ses supérieurs et l’a amené à transférer 25 millions d’euros sur des comptes opaques. Et le problème ne semble pas cesser de s’aggraver, puisqu’il y a de plus en plus de caméras de surveillance dans les lieux publics, notamment dans des pays comme les États-Unis ou la Chine mais aussi au Royaume-Uni ou en Espagne.
Dans la loi sur l’IA ou règlement sur l’intelligence artificielle récemment approuvée de l’Union européenne, l’interdiction de la reconnaissance faciale de masse sauf pour les questions de sécurité nationale, mais c’est un problème qui transcende la sphère étatique et communautaire.
Le fait est que les images prises par n’importe quelle caméra, même si elle ne dispose pas du logiciel nécessaire, peuvent être utilisées à des fins malveillantes et peuvent être utilisées pour identifier une personne par son visage sans autorisation. Aujourd’hui, un groupe de chercheurs du ZJU, de l’Université du Zhejiang (Chine), a développé CamPro, un système pour préserver la confidentialité et empêcher la reconnaissance faciale depuis la racine.
La recherche, publiée dans le dépôt arXiv, propose une nouvelle approche dans le domaine de ce que l’on appelle la reconnaissance anti-faciale (AFR). Ainsi, au lieu d’utiliser des méthodes basées sur l’obscurcissement, la synthèse ou la modification d’images après coup, CamPro est quelque chose qui peut être implémenté sur n’importe quelle caméra : modifie la capture des images en temps réel afin qu’elles ne puissent pas être utilisées pour reconnaître des visages de ceux qui ont été enregistrés.
Reconnaissance antifaciale
Les techniques AFR existantes seraient une version sophistiquée des classiques rayures noires ou pixellisation des visages, conçu pour éviter toute utilisation abusive de notre visage. Cependant, leur efficacité est remise en question, puisque la plupart reposent sur le post-traitement des images, en les modifiant après leur capture. Ces systèmes nécessitent généralement la coopération de l’utilisateur et affectent la qualité des images, empêchant leur utilisation à d’autres fins.
Aussi Il existe du maquillage spécifique, des lunettes et même des vêtements spécialement conçus pour confondre aux outils de reconnaissance faciale. Ce sont des inventions assez ingénieuses, mais elles deviennent obsolètes en raison de la mise à jour continue de la technologie et elles ne sont pas efficaces avec tous les appareils et plates-formes logicielles existants.
Pour ajouter une nouvelle approche, les techniciens du ZJU ont présenté leurs avancées sous le nom de CamPro, qui Fonctionne directement à partir du capteur de la caméra pour protéger la confidentialité sans influencer d’autres applications possibles.
[Asà funciona Clearview, el polémico reconocimiento facial que usa Ucrania para identificar rusos]
« Le développement rapide de l’intelligence artificielle a facilité diverses applications de vision par ordinateur qui reconnaissent l’activité humaine« , explique Wenjun Zhu, l’un des responsables de la recherche, dans Tech Xplore. » Cependant, les informations personnelles sensibles (également connues sous le nom de PII), en particulier les visages qui apparaissent dans les images, sont collectées simultanément et téléchargées vers des tiers non fiables. serveurs de fête.
C’est pour cette raison que son équipe a développé cette technologie, qui vise à « préserver l’intimité dès la naissance », en référence à la capture d’images. CamPro propose ainsi l’option de « transformer une caméra de base en un appareil préservant la confidentialité et il ne peut pas capturer les traits du visage pour l’identification. » Cela implique que sa mise en œuvre serait plus simple dans le monde réel, puisqu’il ne serait pas nécessaire de remplacer les équipements de surveillance par de nouveaux, mais plutôt de les adapter à ce système.
Le fonctionnement de tout appareil photo numérique implique l’utilisation de deux composants matériels de base: un capteur d’image (appelé CMOS ou CCD) et un processeur de signal d’image (ISP), qui se charge d’ajuster des paramètres tels que l’obturateur ou la sensibilité à la lumière. » « Le capteur d’image convertit les lumières perçues en lectures brutes (RAW), puis le FAI convertit le RAW en une image RVB standard (sRVB) compatible avec les systèmes visuels humains », explique Zhu.
Ce que propose CamPro, c’est Profitez des fonctions configurables du FAI, comme la couleur, la luminosité, le contraste, la netteté ou le bruitpour protéger automatiquement la vie privée sans compromettre les autres utilisations possibles des images. » Bien que le but initial de ces paramètres soit de produire une image plausible, nous avons découvert qu’ils peuvent également être utilisés pour obtenir une reconnaissance anti-faciale tout en fournissant suffisamment d’informations pour une détection visuelle bénigne. applications de reconnaissance, par exemple la détection de personnes ou l’estimation de pose », affirment les chercheurs.
L’équipe s’est principalement concentrée sur le processus de correction gamma des caméras, c’est-à-dire le processus de correction des couleurs du FAI. Afin que le résultat obtenu soit valable pour d’autres usages, ils ont également développé un nouveau logiciel d’optimisation basés sur des réseaux contradictoires, car la qualité des images obtenues était inférieure aux exigences minimales de la vision humaine.
« Nous pensons que ce travail est pionnier. Non seulement il a réussi à protéger la confidentialité des images au niveau du capteur, mais il propose également une chaîne complète de fonctions« , de l’élimination des informations à la restauration d’images en passant par des tâches visuelles, et c’est facile à mettre en œuvre », déclare fièrement Zhu lui-même.
Tests de laboratoire
Pour arriver à cette conclusion, les chercheurs ont constaté que CamPro s’adaptait sans problème à plusieurs systèmes d’identification faciale, réduisant sa précision moyenne à 0,3 %. Cela a également démontré que la technologie est résistant aux cyberattaquesqui impliquent généralement de recycler les modèles de reconnaissance faciale pour éviter les « pièges » des systèmes AFR.
« CamPro est plus adapté à certaines caméras spécialisées, comme celles utilisées dans les maisons intelligentes pour la détection des chutes des personnes âgées », explique Zhu. « Ces caméras doivent effectuer certaines tâches visuelles sans nécessiter d’informations faciales. « CamPro peut empêcher efficacement que les informations faciales soient obtenues et utilisées de manière malveillante dans divers scénarios. »
Maintenant, Zhu et ses collègues de ZJU travaillent à améliorer les performances de CamPro, en le rendant compatible avec davantage de caméras et c’est tout. Ils font les premiers pas pour en faire un produit disponible sur le marché. Malgré ses limites logiques, comme la mauvaise qualité des capteurs ISP ou certaines distorsions pouvant affecter la qualité finale des images, il représente une avancée décisive qui commencera bientôt à être testée en environnement réel.
Vous pourriez également être intéressé par :
Suivez les sujets qui vous intéressent