À New York, les forces de l’ordre surveillent régulièrement l’utilisation des médias sociaux par les jeunes noirs, autochtones et de couleur (BIPOC), en compilant des classeurs de publications sur Twitter et Facebook pour les relier à des crimes ou à des gangs.
Quelque chose d’aussi inoffensif que d’aimer une photo sur Facebook peut être utilisé comme preuve d’actes répréhensibles lors d’un procès. Ainsi, lorsque les policiers interprètent mal les publications sur les réseaux sociaux, qui incluent souvent de l’argot, des blagues internes, des paroles de chansons et des références à la culture pop, cela peut conduire à conséquences sérieuses.
Pour éviter ce genre d’interprétations erronées, SAFELab, une initiative de recherche transdisciplinaire de l’École de communication d’Annenberg et de l’École de pratique et de politique sociales, a lancé une nouvelle application Web qui apprend aux adultes à regarder de plus près les publications sur les réseaux sociaux : Interprétez-moi.
L’outil est actuellement ouvert aux membres de trois groupes : les éducateurs, les forces de l’ordre et la presse.
« Ce sont ces personnes qui entrent régulièrement en contact avec les jeunes et qui ont une influence sur leur vie », explique Siva Mathiyazhagan, professeur adjoint de recherche et directeur associé des stratégies et de l’impact au SAFELab. « Pourtant, beaucoup d’entre eux n’ont pas le contexte culturel nécessaire pour comprendre comment les jeunes se parlent en ligne. »
Un regard plus attentif sur les réseaux sociaux
Le développement de l’application a commencé lorsque Desmond Upton Patton, directeur de SAFELab, professeur à l’université Brian et Randi Schwartz à Penn, était professeur agrégé à la faculté de travail social de l’université Columbia à New York.
Les étudiants de l’École de travail social rencontraient chaque semaine des jeunes du Brownsville Community Justice Center, un centre communautaire conçu pour réduire la criminalité et l’incarcération dans le centre de Brooklyn, leur demandant de l’aide pour interpréter et annoter les publications sur les réseaux sociaux rédigées par des personnes de leur âge.
« Les jeunes du centre de justice communautaire de Brownsville ont compris comment les émojis, l’argot et les mots hyper locaux sont utilisés en ligne », explique Mathiyazhagan. « Leurs idées ont été essentielles à la création de la plateforme. »
L’équipe SAFELab a utilisé ce pseudo-dictionnaire créé par les étudiants pour créer une formation en ligne sur les réseaux sociaux destinée aux enseignants, aux policiers et aux journalistes.
Au cours de cette formation, les utilisateurs sont placés dans un scénario fictif dans lequel ils rencontrent une publication potentiellement dangereuse sur les réseaux sociaux, comme un étudiant semblant déprimé ou potentiellement violent, et doivent décider comment réagir.
Tout en parcourant le scénario, les utilisateurs rassemblent le contexte de la publication, en consultant par exemple les publications précédentes du jeune ou en interrogeant ses amis sur sa vie sociale. À la fin d’un module, un utilisateur doit décider de la manière dont il va procéder (ce qu’il dira à son éditeur ou au directeur à propos de l’étudiant) et est invité à réfléchir au raisonnement qui le sous-tend.
SAFELab a testé la formation auprès de 60 enseignants, 50 journalistes et 30 responsables de l’application des lois lors de la première phase.
Avant et après la formation, ils ont tous répondu à des enquêtes pour déterminer dans quelle mesure les préjugés pouvaient affecter leurs compétences en interprétation des médias sociaux. Dans tous les groupes, les scores de biais ont diminué après avoir utilisé la formation, explique Mathiyazhagan.
Une application web est créée
InterpretMe s’appuie sur les connaissances acquises par l’équipe SAFELab après avoir créé et testé ses modules de formation. Au lieu de guider les utilisateurs à travers un scénario soigneusement conçu, InterpretMe permet aux utilisateurs de télécharger des publications réelles sur les réseaux sociaux, puis de les guider à travers une série d’exercices basés sur la formation SAFELab.
Après avoir téléchargé une publication, les éducateurs, les policiers et les membres de la presse doivent suivre cinq étapes :
Après avoir terminé l’exercice, les utilisateurs reçoivent un rapport de leur interprétation.
Interprétez-moi 2.0
SAFELab prévoit d’intégrer l’apprentissage automatique dans la prochaine version d’InterpretMe, explique Mathiyazhagan.
L’équipe SAFELab expérimente depuis longtemps l’IA. Avec l’aide d’informaticiens et de jeunes anciennement impliqués dans des gangs de Chicago, ils ont créé un modèle d’apprentissage automatique. formés pour détecter les signes de gangs, l’argot, les références locales et les émotions dans l’espoir de prévenir la violence.
Bien que le modèle soit basé sur des données provenant de Chicago, il pourrait être étendu pour inclure le contexte de n’importe quelle zone, selon l’équipe.
« Grâce à l’intelligence artificielle, nous pourrions non seulement accélérer le processus d’interprétation, mais aussi combler les lacunes culturelles », explique Mathiyazhagan.
Une seule personne peut manquer les paroles d’une chanson dans une publication Facebook, mais une machine formée sur les informations de la communauté pourrait les signaler et empêcher qu’un malentendu ne se produise.