Google n’intégrera pas de systèmes de vérification (fact-checking, dans son expression anglaise) ni dans les résultats de votre moteur de recherche ni dans les vidéos YouTube, et ne sera pas non plus utilisé pour classer ou éliminer du contenu. Une mesure qui va à l’encontre de la nouvelle législation promue par l’Union européenne (UE) et s’inscrit dans la lignée des politiques d’autres grandes entreprises technologiques telles que Meta Platforms ou X.
C’est ce qu’a communiqué Google à Bruxelles dans une lettre à laquelle le média américain Axios a eu accès. Cette décision n’est pas une surprise puisque le géant de la technologie avait déjà indiqué qu’il n’avait pas l’intention de modifier ses pratiques de modération de contenuqui n’ont jamais inclus de systèmes de vérification.
Dans la lettre, signée par Kent Walker, président des affaires mondiales de Google, l’entreprise souligne que l’intégration de la vérification du contenu requise par le nouveau Code de bonnes pratiques en matière de désinformation promu par la Commission européenne (CE) « ce n’est tout simplement pas approprié ou efficace » pour vos services.
Le manager le défend L’approche actuelle de Google en matière de modération de contenu fonctionne et cite comme preuve de son succès les résultats obtenus lors de la « période d’élections mondiales sans précédent » qui a eu lieu en 2024.
Plus précisément, la lettre, adressée à Renate Nikolay, directrice générale adjointe du département du contenu et de la technologie de la Commission européenne (CE), se concentre sur la fonction que l’entreprise a ajoutée à YouTube l’année dernière et cela permet à certains utilisateurs d’ajouter des notes contextuelles aux vidéos. Un outil qui, assure-t-il, présente un « potentiel important ».
code européen
Le Code européen de bonnes pratiques contre la désinformation a été approuvé en 2018 et est devenu le premier outil de ce type grâce auquel les acteurs de l’industrie se sont mis d’accord sur des normes d’autorégulation pour lutter contre la désinformation.
Un processus de révision a été lancé en juin 2021, aboutissant à un nouveau texte, signé et présenté en juin 2022. Le nouveau code s’inscrit également dans un cadre réglementaire plus large, qui comprend également une législation sur la transparence et la segmentation de la publicité politique et la loi sur les services numériques (DSA).
Axios souligne que le respect du code nécessiterait que Google intègre les résultats de la vérification du contenu aux côtés des résultats proposés par son moteur de recherche et les vidéos YouTube. Aussi à Intégrez la vérification des faits dans vos systèmes de classement et vos algorithmes.
Google faisait partie des entreprises qui ont participé à la signature du code en 2022dont le respect est pour l’instant volontaire. Cependant, dans sa lettre, Walker assure que l’entreprise se retirera de tous ses engagements liés à la vérification du contenu avant que cela ne devienne un « code de conduite DSA ».
Elle s’engage toutefois auprès des régulateurs européens à continuez à investir dans l’amélioration de vos pratiques actuelles de modération de contenuqui visent à fournir aux utilisateurs plus d’informations sur leurs résultats de recherche grâce à des fonctionnalités telles que le filigrane Synth ID et l’utilisation de l’intelligence artificielle (IA) sur YouTube.
Même si la position de Google n’est pas nouvelle, la lettre arrive quelques jours après Meta Platform annoncera son intention de mettre fin au système de vérification des données qui a été lancée en 2016 et était chargée de vérifier si les publications et les nouvelles publiées sur les plateformes du groupe telles que Facebook ou Instagram étaient fausses ou non.
Désormais, seront les utilisateursà travers leurs commentaires sur les plateformes, ceux qui seront chargés de superviser la véracité du contenu qui sont publiés. C’est la même approche qui a été appliquée à