Persönlich erleben Menschen mit Behinderungen oft Mikroaggressionen – Kommentare oder subtile Beleidigungen, die auf Stereotypen basieren. Neue Arten von Mikroaggressionen spielen sich laut einer neuen Cornell-Forschung auch online ab.
Die Studie stellt fest, dass sich diese ständigen Online-Beleidigungen summieren. Mikroaggressionen beeinträchtigen das Selbstwertgefühl und verändern die Art und Weise, wie Menschen mit Behinderungen soziale Medien nutzen. Und aufgrund ihrer Subtilität können Mikroaggressionen für Algorithmen schwer zu erkennen sein, warnen die Autoren.
„Dieses Papier bringt eine neue Perspektive darauf, wie soziale Interaktionen gestalten, was gleichberechtigter Zugang online und in der digitalen Welt bedeutet“, sagte Sharon Heung, Doktorandin auf dem Gebiet der Informationswissenschaft. Heung präsentierte die Studie „Nothing Micro about It: Examining Ableist Microaggressions on Social Media“ am 26. Oktober auf der ASSETS 2022, der Association for Computing Machinery SIGACCESS Conference on Computers and Accessibility.
Wenn Mikroaggressionen in Live-Umgebungen auftreten, sind sie oft kurzlebig und haben nur wenige Zuschauer. „Wenn sie auf Social-Media-Plattformen stattfinden, geschieht dies vor einem großen Publikum – das Ausmaß ist völlig anders und dann leben sie weiter, damit die Menschen sie für immer sehen können“, sagte Co-Autorin Aditya Vashistha, Assistenzprofessorin für Informationswissenschaft an der Cornell Ann S. Bowers College für Informatik und Informationswissenschaft.
Darüber hinaus können Social-Media-Plattformen Mikroaggressionen verstärken und möglicherweise Fehlinformationen verbreiten. „Wir sind sehr besorgt darüber, wie es die Art und Weise prägt, wie ein breiteres Publikum über Behinderung und behinderte Menschen denkt“, sagte Co-Autorin Megh Marathe, Assistenzprofessorin für Medien, Information, Bioethik und soziale Gerechtigkeit an der Michigan State University.
Heung und die Co-Autorin Mahika Phutane, eine Doktorandin im Bereich Informatik, interviewten 20 Freiwillige, die nach eigenen Angaben verschiedene Behinderungen hatten und auf Social-Media-Plattformen aktiv waren. Die Teilnehmer wurden gebeten, subtile Diskriminierung und Mikroaggressionen, die sie erlebt hatten, und die Auswirkungen, die sie auf ihr Leben hatten, zu beschreiben.
Herablassende Kommentare wie „Du bist so inspirierend“ waren die häufigsten, zusammen mit infantilisierenden Posts wie „Oh, du lebst alleine?“ Die Leute stellten auch unangemessene Fragen zum Privatleben der Benutzer und machten Annahmen darüber, was die Person aufgrund ihrer Behinderung tun oder tragen könnte. Einigen Benutzern wurde gesagt, dass sie über ihre Behinderung lügen oder dass sie keine haben, insbesondere wenn die Behinderung unsichtbar war, wie z. B. eine psychische Erkrankung.
Die Forscher kategorisierten die Reaktionen in 12 Arten von Mikroaggressionen. Die meisten passten in Kategorien, die zuvor in Offline-Interaktionen erkannt wurden, aber zwei waren einzigartig für soziale Medien. Die erste war „Ghosting“ oder ignorierte Posts. Die zweite betraf Plattformen, die für Menschen mit Behinderungen nicht zugänglich waren. Einige Benutzer sagten zum Beispiel, dass sie sich unwillkommen fühlten, wenn Leute keinen Alt-Text zu Fotos hinzufügten oder Textfarben verwendeten, die sie nicht erkennen konnten. Eine Person mit Zwergwuchs sagte, dass ihre Posten ständig entfernt wurden, weil sie immer wieder als minderjährig gekennzeichnet wurde.
Nach dem Erleben einer Mikroaggression mussten die Benutzer entscheiden, wie sie reagieren sollten. Unabhängig davon, ob sie den Kommentar ignorierten, ihn meldeten oder versuchten, die andere Person aufzuklären, sagten die Teilnehmer, dass es einen emotionalen Tribut forderte. Viele machten Pausen von den sozialen Medien oder beschränkten die Informationen, die sie online teilten.
„Dieses Problem anzugehen ist wirklich schwierig“, sagte Phutane. „Soziale Medien sind bestrebt, das Engagement zu fördern. Wenn sie den Täter aufklären, wird dieser ursprüngliche Beitrag immer mehr beworben.“
Die Teilnehmer schlugen vor, dass Plattformen Mikroaggressionen automatisch erkennen und löschen sollten oder ein Bot mit Informationen zu Behinderungen auftauchen könnte.
Die meisten Social-Media-Plattformen verfügen bereits über Moderationstools – aber Meldesysteme sind manchmal fehlerhaft, undurchsichtig und können Belästigung falsch identifizieren. Und Mikroaggressionen können für automatisierte Systeme schwer zu erkennen sein. Im Gegensatz zu Hassreden, bei denen Algorithmen nach bestimmten Wörtern suchen können, sind Mikroaggressionen nuancierter und kontextabhängiger.
Sobald das Ausmaß und die Arten von Mikroaggressionen, die Menschen aus Randgruppen erfahren, besser verstanden sind, können den Forschern zufolge Werkzeuge entwickelt werden, um die Belastung durch den Umgang mit ihnen zu begrenzen. Diese Probleme müssen unbedingt angegangen werden, insbesondere im Hinblick auf die potenzielle Ausweitung der virtuellen Realität und des Metaversums.
„Wir müssen besonders wachsam und bewusst sein, wie diese realen Interaktionen auf Online-Einstellungen übertragen werden“, sagte Co-Autorin Shiri Azenkot, außerordentliche Professorin für Informationswissenschaft am Jacobs Technion-Cornell Institute at Cornell Tech and Cornell Bowers CIS . „Es sind nicht nur Interaktionen in sozialen Medien – wir werden auch mehr Interaktionen in virtuellen Räumen sehen.“
Sharon Heung et al., Nothing Micro About It: Examining Ableist Microaggressions on Social Media, Die 24. Internationale ACM SIGACCESS Konferenz über Computer und Barrierefreiheit (2022). DOI: 10.1145/3517428.3544801