Wenn junge Menschen in den sozialen Medien Drohungen auszusprechen scheinen, meinen sie das ernst? Eine Web-App könnte Klarheit schaffen

In New York City überwachen die Strafverfolgungsbehörden regelmäßig die Nutzung sozialer Medien durch junge Menschen, die Schwarz, Indigene und Farbige sind (BIPOC), und stellen Ordner mit Twitter- und Facebook-Beiträgen zusammen, um sie mit Verbrechen oder Banden in Verbindung zu bringen.

So etwas harmloses wie das Liken eines Fotos auf Facebook kann in einem Prozess als Beweis für ein Fehlverhalten dienen. Wenn also Polizisten Social-Media-Beiträge – die oft Slang, Insider-Witze, Liedtexte und Anspielungen auf die Popkultur enthalten – falsch interpretieren, kann dies dazu führen Ernsthafte Konsequenzen.

Um solche Fehlinterpretationen zu verhindern, hat SAFELab, eine transdisziplinäre Forschungsinitiative an der Annenberg School for Communication und der School of Social Practice and Policy, eine neue webbasierte App gestartet, die Erwachsenen beibringt, sich Social-Media-Beiträge genauer anzusehen: InterpretMe.

Das Tool steht derzeit Mitgliedern dreier Gruppen offen: Pädagogen, Strafverfolgungsbehörden und der Presse.

„Das sind die Menschen, die regelmäßig mit jungen Menschen in Kontakt kommen und Einfluss auf deren Leben haben“, sagt Siva Mathiyazhagan, wissenschaftliche Assistenzprofessorin und stellvertretende Direktorin für Strategien und Wirkung bei SAFELab. „Viele von ihnen verfügen jedoch nicht über den kulturellen Kontext, um zu verstehen, wie junge Menschen online miteinander reden.“

Ein genauerer Blick auf soziale Medien

Die Entwicklung der App begann, als SAFELab-Direktor Desmond Upton Patton, Professor an der Brian and Randi Schwartz University in Penn, außerordentlicher Professor an der Columbia University School of Social Work in New York war.

Studenten der School of Social Work trafen sich wöchentlich mit Jugendlichen im Brownsville Community Justice Center, einem Gemeindezentrum zur Reduzierung von Kriminalität und Inhaftierung im Zentrum von Brooklyn, und baten sie um Hilfe bei der Interpretation und Kommentierung von Social-Media-Beiträgen von Menschen ihres Alters.

„Die jungen Leute im Brownsville Community Justice Center haben verstanden, wie Emojis, Slang und hyperlokale Wörter online verwendet werden“, sagt Mathiyazhagan. „Ihre Erkenntnisse waren der Schlüssel zum Aufbau der Plattform.“

Das SAFELab-Team nutzte dieses von den Schülern erstellte Pseudowörterbuch, um Online-Social-Media-Schulungen für Lehrer, Polizisten und Journalisten zu erstellen.

Während dieser Schulung werden Benutzer in ein fiktives Szenario versetzt, in dem sie auf einen potenziell schädlichen Social-Media-Beitrag stoßen, beispielsweise auf einen Schüler, der depressiv oder möglicherweise gewalttätig zu sein scheint, und müssen entscheiden, wie sie reagieren sollen.

Beim Durchlaufen des Szenarios erfassen Benutzer den Kontext zum Beitrag, indem sie sich beispielsweise die vorherigen Beiträge des Jugendlichen ansehen oder Freunde nach ihrem sozialen Leben fragen. Am Ende eines Moduls muss ein Benutzer entscheiden, wie er vorgehen möchte – was er seinem Redakteur oder Schulleiter über den Studenten sagen möchte – und wird aufgefordert, über die dahinter stehende Begründung nachzudenken.

SAFELab testete die Schulung in Phase eins mit 60 Lehrern, 50 Journalisten und 30 Polizeibeamten.

Vor und nach der Schulung nahmen alle an Umfragen teil, um zu beurteilen, wie sich Voreingenommenheit auf ihre Interpretationsfähigkeiten in sozialen Medien auswirken könnte. In allen Gruppen sanken die Voreingenommenheitswerte nach der Nutzung des Trainings, sagt Mathiyazhagan.

Eine Web-App wird erstellt

InterpretMe basiert auf den Erkenntnissen, die das SAFELab-Team nach der Erstellung und dem Testen seiner Schulungsmodule gewonnen hat. Anstatt die Benutzer durch ein sorgfältig ausgearbeitetes Szenario zu führen, ermöglicht InterpretMe den Benutzern das Hochladen realer Social-Media-Beiträge und führt sie dann durch eine Reihe von Übungen, die auf der SAFELab-Schulung basieren.

Nach dem Hochladen eines Beitrags werden Pädagogen, Polizisten und Pressevertreter durch fünf Schritte geführt:

  • Lernen: Benutzer werden aufgefordert, mehr über den Autor des Beitrags zu erfahren, indem sie sich dessen Social-Media-Engagement, Interessen und andere Aktivitäten ansehen.
  • Reflexion: Benutzer werden gebeten, über den Beitrag nachzudenken, als wären sie ein unmittelbares Familienmitglied des Verfassers. Anschließend werden sie gebeten, mit einem Freund oder Kollegen zu reflektieren, der eine ähnliche Identität und ähnliche Erfahrungen mit dem Plakat hat.
  • Kontextualisierung: Benutzer werden gebeten, die „sozialen Umstände, den kulturellen Hintergrund und die sprachlichen Ausdrücke“ hinter dem Beitrag zu berücksichtigen und dann zu prüfen, ob der Beitrag unter Umständen mit psychischen Problemen erstellt wurde und ob der Beitrag durch Massenmedieninhalte wie Liedtexte oder Filme beeinflusst wurde Linien.
  • Interpretieren, um zu handeln: Benutzer werden aufgefordert, ihre endgültige Interpretation des Beitrags mitzuteilen.
  • Handeln: Benutzer entscheiden, ob der Beitrag keinen Schaden, möglichen Schaden oder wahrscheinlichen Schaden anrichten darf.
  • Nach Abschluss der Übung erhalten die Benutzer einen Bericht über ihre Interpretation.

    InterpretMe 2.0

    SAFELab plant, maschinelles Lernen in die nächste Version von InterpretMe zu integrieren, sagt Mathiyazhagan.

    Das SAFELab-Team experimentiert schon lange mit KI. Mit Hilfe von Informatikern und ehemaligen Gangster-Jugendlichen in Chicago entwickelten sie ein Modell für maschinelles Lernen Sie sind darin geschult, Bandenzeichen, Slang, lokale Bezüge und Emotionen zu erkennen, in der Hoffnung, Gewalt zu verhindern.

    Während das Modell auf Daten aus Chicago basiert, könnte es erweitert werden, um den Kontext für jeden Bereich einzubeziehen, sagt das Team.

    „Durch künstliche Intelligenz könnten wir möglicherweise nicht nur den Interpretationsprozess beschleunigen, sondern auch kulturelle Lücken schließen“, sagt Mathiyazhagan.

    Eine einzelne Person könnte den Liedtext in einem Facebook-Beitrag übersehen, aber eine auf Community-Einblicken trainierte Maschine könnte sie kennzeichnen und verhindern, dass es zu Missverständnissen kommt.

    Zur Verfügung gestellt von der University of Pennsylvania

    ph-tech