In New York City überwachen die Strafverfolgungsbehörden regelmäßig die Nutzung sozialer Medien durch junge Menschen, die Schwarz, Indigene und Farbige sind (BIPOC), und stellen Ordner mit Twitter- und Facebook-Beiträgen zusammen, um sie mit Verbrechen oder Banden in Verbindung zu bringen.
So etwas harmloses wie das Liken eines Fotos auf Facebook kann in einem Prozess als Beweis für ein Fehlverhalten dienen. Wenn also Polizisten Social-Media-Beiträge – die oft Slang, Insider-Witze, Liedtexte und Anspielungen auf die Popkultur enthalten – falsch interpretieren, kann dies dazu führen Ernsthafte Konsequenzen.
Um solche Fehlinterpretationen zu verhindern, hat SAFELab, eine transdisziplinäre Forschungsinitiative an der Annenberg School for Communication und der School of Social Practice and Policy, eine neue webbasierte App gestartet, die Erwachsenen beibringt, sich Social-Media-Beiträge genauer anzusehen: InterpretMe.
Das Tool steht derzeit Mitgliedern dreier Gruppen offen: Pädagogen, Strafverfolgungsbehörden und der Presse.
„Das sind die Menschen, die regelmäßig mit jungen Menschen in Kontakt kommen und Einfluss auf deren Leben haben“, sagt Siva Mathiyazhagan, wissenschaftliche Assistenzprofessorin und stellvertretende Direktorin für Strategien und Wirkung bei SAFELab. „Viele von ihnen verfügen jedoch nicht über den kulturellen Kontext, um zu verstehen, wie junge Menschen online miteinander reden.“
Ein genauerer Blick auf soziale Medien
Die Entwicklung der App begann, als SAFELab-Direktor Desmond Upton Patton, Professor an der Brian and Randi Schwartz University in Penn, außerordentlicher Professor an der Columbia University School of Social Work in New York war.
Studenten der School of Social Work trafen sich wöchentlich mit Jugendlichen im Brownsville Community Justice Center, einem Gemeindezentrum zur Reduzierung von Kriminalität und Inhaftierung im Zentrum von Brooklyn, und baten sie um Hilfe bei der Interpretation und Kommentierung von Social-Media-Beiträgen von Menschen ihres Alters.
„Die jungen Leute im Brownsville Community Justice Center haben verstanden, wie Emojis, Slang und hyperlokale Wörter online verwendet werden“, sagt Mathiyazhagan. „Ihre Erkenntnisse waren der Schlüssel zum Aufbau der Plattform.“
Das SAFELab-Team nutzte dieses von den Schülern erstellte Pseudowörterbuch, um Online-Social-Media-Schulungen für Lehrer, Polizisten und Journalisten zu erstellen.
Während dieser Schulung werden Benutzer in ein fiktives Szenario versetzt, in dem sie auf einen potenziell schädlichen Social-Media-Beitrag stoßen, beispielsweise auf einen Schüler, der depressiv oder möglicherweise gewalttätig zu sein scheint, und müssen entscheiden, wie sie reagieren sollen.
Beim Durchlaufen des Szenarios erfassen Benutzer den Kontext zum Beitrag, indem sie sich beispielsweise die vorherigen Beiträge des Jugendlichen ansehen oder Freunde nach ihrem sozialen Leben fragen. Am Ende eines Moduls muss ein Benutzer entscheiden, wie er vorgehen möchte – was er seinem Redakteur oder Schulleiter über den Studenten sagen möchte – und wird aufgefordert, über die dahinter stehende Begründung nachzudenken.
SAFELab testete die Schulung in Phase eins mit 60 Lehrern, 50 Journalisten und 30 Polizeibeamten.
Vor und nach der Schulung nahmen alle an Umfragen teil, um zu beurteilen, wie sich Voreingenommenheit auf ihre Interpretationsfähigkeiten in sozialen Medien auswirken könnte. In allen Gruppen sanken die Voreingenommenheitswerte nach der Nutzung des Trainings, sagt Mathiyazhagan.
Eine Web-App wird erstellt
InterpretMe basiert auf den Erkenntnissen, die das SAFELab-Team nach der Erstellung und dem Testen seiner Schulungsmodule gewonnen hat. Anstatt die Benutzer durch ein sorgfältig ausgearbeitetes Szenario zu führen, ermöglicht InterpretMe den Benutzern das Hochladen realer Social-Media-Beiträge und führt sie dann durch eine Reihe von Übungen, die auf der SAFELab-Schulung basieren.
Nach dem Hochladen eines Beitrags werden Pädagogen, Polizisten und Pressevertreter durch fünf Schritte geführt:
Nach Abschluss der Übung erhalten die Benutzer einen Bericht über ihre Interpretation.
InterpretMe 2.0
SAFELab plant, maschinelles Lernen in die nächste Version von InterpretMe zu integrieren, sagt Mathiyazhagan.
Das SAFELab-Team experimentiert schon lange mit KI. Mit Hilfe von Informatikern und ehemaligen Gangster-Jugendlichen in Chicago entwickelten sie ein Modell für maschinelles Lernen Sie sind darin geschult, Bandenzeichen, Slang, lokale Bezüge und Emotionen zu erkennen, in der Hoffnung, Gewalt zu verhindern.
Während das Modell auf Daten aus Chicago basiert, könnte es erweitert werden, um den Kontext für jeden Bereich einzubeziehen, sagt das Team.
„Durch künstliche Intelligenz könnten wir möglicherweise nicht nur den Interpretationsprozess beschleunigen, sondern auch kulturelle Lücken schließen“, sagt Mathiyazhagan.
Eine einzelne Person könnte den Liedtext in einem Facebook-Beitrag übersehen, aber eine auf Community-Einblicken trainierte Maschine könnte sie kennzeichnen und verhindern, dass es zu Missverständnissen kommt.