La Garde civile enquête sur un cas de manipulation pornographique d’images dotées d’intelligence artificielle qui touchent des mineurs, comme l’ont confirmé des sources proches du dossier. Les auteurs présumés sont tdes mineurs qui auraient manipulé la photos de camarades de lycée pour les transformer en scènes sexuelless, puis ils les auraient partagés sur Internet.
Des cas comme celui-ci se sont déjà produits dans d’autres régions d’Espagne, comme Saragosse et Badajoz. Conformément à ces précédents, les experts en droit pénal ont expliqué que les entreprises propriétaires des applications utilisées pour recréer ces les faux nus n’auraient pas de responsabilité pénalemais l’Agence espagnole de protection des données pourrait prendre des mesures administratives si elle n’intervient pas pour empêcher ce type d’utilisation.
Élargir la définition juridique de la pédopornographie
En octobre, le Sénat a approuvé une motion du PP qui préconise élargir la définition juridique de pornographie juvénile pour classer les images générées par l’IA qui représentent des mineurs en ccomportement sexuellement explicite ou qui affectent votre vie privée.