La La Commission européenne a publié ce mardi la liste des moteurs de recherche et plateformes numériques qui fera l’objet d’une Supervision et contrôle renforcé. Au total, 17 plateformes en ligne et 2 moteurs de recherche qui totalisent au moins 45 millions d’utilisateurs actifs mensuels et qui auront quatre mois, jusqu’au 25 août, pour se conformer aux nouvelles obligations établies dans le Droit des services numériques (DSA) : de la protection accrue des utilisateurs et des mineurs à l’identification et à la réduction d’un large éventail de risques systémiques, notamment les contenus illégaux et la désinformation.
Les deux moteurs de recherche identifiés par Bruxelles sont Bing et Google tandis que les dix-sept plateformes concernées par les contrôles supplémentaires, désignées en fonction des données des utilisateurs qu’elles devaient publier d’ici le 17 février, seront Alibaba AliExpress, Amazon Marketplace, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TIC Tac, Twitter, Wikipédia, YouTube et Zalando. « Le compte à rebours commence pour que 19 grandes plateformes en ligne et moteurs de recherche respectent pleinement les obligations particulières qui leur sont imposées par la loi sur les services numériques », a célébré le commissaire à l’industrie, Thierry Breton.
« La loi sur les services numériques apportera une transparence et une responsabilité importantes aux moteurs de recherche et aux plateformes et donnera aux consommateurs plus de contrôle sur leur vie en ligne. Les nominations qui ont été faites aujourd’hui sont un grand pas en avant pour y parvenir », a ajouté le vice-président Margrethe Vestager sur les entreprises sélectionnées. Les plateformes devront protéger les utilisateurs en ligne, y compris les mineurs, en évaluant et en atténuant leurs risques systémiques et en fournissant des outils de modération de contenu robustes.
Modération du contenu
Cela, soutient le Community Executive, signifie former les utilisateurs afin qu’ils puissent obtenir des plateformes des informations claires sur les raisons pour lesquelles certaines informations leur sont recommandées et avoir le droit de s’exclure des systèmes de recommandation basés sur des profils. Ils devront également être en mesure de signaler facilement les contenus illégaux, et les plateformes seront tenues de traiter ces signalements avec diligence en plus de s’assurer qu’elles n’affichent pas de publicités basées sur des données utilisateur sensibles (telles que l’origine ethnique, les opinions politiques ou l’orientation sexuelle) et taguez toutes les publicités et informez les utilisateurs de qui en fait la promotion. Toutes les informations devront parvenir à l’utilisateur dans un langage « simple » et « compréhensible », dans les langues des États membres dans lesquels ils opèrent.
Les plateformes identifiées seront également amenées à repenser leurs systèmes pour garantir un haut niveau de confidentialité, de sécurité et de protection des mineurs. Par exemple, ils ne pourront pas faire de publicité destinée aux mineurs sur la base de profils et devront fournir à la Commission européenne dans un délai compris entre quatre et douze mois des évaluations particulières des risques, notamment des effets négatifs sur la santé mentale des mineurs. La liste des incontournables comprend également la refonte des services, y compris les interfaces, les systèmes de recommandation, les termes et conditions, pour atténuer les risques.
Supprimer le contenu
Concernant la lutte contre la désinformation, la loi obligera à prendre des mesures pour faire face aux risques liés à la diffusion de contenus illégaux en ligne et aux effets négatifs sur la liberté d’expression et d’information. Les termes et conditions doivent être clairs, les respecter avec diligence et non arbitrairement, et garantir un mécanisme permettant aux utilisateurs de signaler les contenus illégaux et les plateformes pour nous éliminer rapidement. Ils devront également effectuer une analyse des risques et mettre en œuvre des mesures contre la propagation de la désinformation et l’utilisation non authentique de leurs services.
La nouvelle loi obligera les plateformes à se soumettre à des audits externes indépendants, à donner aux chercheurs l’accès aux données accessibles au public, à publier des rapports de transparence sur les décisions de modération de contenu et la gestion des risques, et à rendre compte avant la fin août à la Commission de sa première évaluation annuelle des risques. Bien que l’exécutif communautaire soit l’autorité compétente pour superviser les plateformes et les moteurs de recherche désignés, il travaillera en étroite collaboration avec les coordonnateurs nationaux des services numériques et que les gouvernements doivent établir pour le 17 février 2024.
À cette date, les autres plateformes devront également se conformer à leurs obligations et offrir à leurs utilisateurs la protection et les garanties établies par la loi, ce qui obligera également les plateformes à être plus transparentes avec la algorithmes. Par exemple, les chercheurs accrédités auront la possibilité d’accéder aux données des entreprises pour effectuer des recherches sur les risques systémiques dans l’UE. Cela signifie, selon Bruxelles, qu’ils pourraient, par exemple, analyser les décisions des plateformes sur ce que les utilisateurs voient et interagissent en ligne, ayant accès à des données jusque-là non divulguées.