Des experts de l’Université de Nottingham ont développé un langage commun à utiliser pour les avertissements de déclenchement et de contenu, après que leurs recherches ont révélé que les avertissements actuels ne tiennent pas suffisamment compte des besoins du public visé.
La recherche a également montré que le secteur de l’éducation est celui qui mentionne le plus fréquemment les avertissements liés à la violence et au sexe, tandis que les industries audiovisuelles (telles que le cinéma) sont les plus grands utilisateurs d’avertissements concernant des contenus dérangeants.
L’étude publiée dans PLOS ONEétait une collaboration entre des experts de l’École des sciences de la santé, du Département d’histoire, de l’École de la culture, des langues et des études régionales et de l’École de psychologie de l’Université de Nottingham, de l’Université de l’Illinois et des membres du comité consultatif sur l’expérience vécue qui apporter des expériences personnelles de problèmes de santé mentale.
Les travaux se sont déroulés dans le cadre du Étude NEON sur les récits de rétablissement de la santé mentale en ligne.
Les avertissements de déclenchement et les avertissements de contenu sont des déclarations au début d’un texte ou d’une vidéo, alertant le lecteur qu’il contient des éléments potentiellement pénibles. Ils sont utilisés dans un large éventail de secteurs, y compris le cinéma et l’enseignement supérieur. Ils sont controversés et, tandis que certains chercheurs affirment qu’ils peuvent aider les gens à éviter une exposition indésirable à la détresse, d’autres soutiennent qu’ils peuvent entraver le développement de la résilience.
L’objectif de cette recherche était d’identifier un langage commun pour les avertissements de contenu et de comprendre où et comment les avertissements de contenu sont utilisés. Pour ce faire, l’équipe a identifié 136 exemples de systèmes d’avertissements de contenu publiés dans 32 pays. Ils ont organisé les avertissements de contenu en quatorze catégories. Ils ont également identifié les secteurs dans lesquels ils ont été utilisés et le public visé.
La liste finale des catégories comprenait la violence, le sexe, la stigmatisation, le contenu dérangeant, les comportements à risque, la santé mentale, la criminalité et les abus.
Le Dr Stefan Rennick-Egglestone, de l’École des sciences de la santé de l’Université, et coordinateur de l’étude NEON, a déclaré : « En fournissant un langage commun pour les avertissements de contenu, nous espérons que notre catégorisation permettra d’identifier plus systématiquement leurs avantages et leurs inconvénients. Nous espérons également que nos recherches permettront le développement réfléchi de systèmes d’avertissement de contenu offrant des avantages à des publics spécifiques, tels que les personnes souffrant de stress traumatique.
Typologie des alertes de contenu et trigger warnings : Revue systématique, PLoS ONE (2022). DOI : 10.1371/journal.pone.0266722