Sind Märchen fair? KI hilft dabei, geschlechtsspezifische Vorurteile in Kinderbüchern zu erkennen

Die EU schlaegt einen 12 Milliarden Dollar Plan vor um den wachsenden Cybersicherheitsbedrohungen

Schneewittchen, Aschenputtel und Dornröschen haben mehr gemeinsam als nur ihre Ursprünge als klassische Märchenfiguren und sind nun Teil von Disneys berühmter Figurenliste. Laut Literaturwissenschaftlern – und jetzt auch KI – sind ihre Märchen auch voller Geschlechtervorurteile und Stereotypen.

Ein Forscherteam der Northeastern University, der University of California Los Angeles und IBM Research hat ein Framework für künstliche Intelligenz entwickelt, das Kindergeschichtenbücher analysieren und Fälle von geschlechtsspezifischer Voreingenommenheit erkennen kann. Ihre Forschung wurde auf der veröffentlicht arXiv Preprint-Server.

Die Art und Weise, wie Märchen Kindern, insbesondere jungen Mädchen, Lektionen, Moral und soziokulturelle Rollen vermitteln, wird in der Wissenschaft und darüber hinaus seit Jahrzehnten diskutiert. Diese Geschichten sind voll von Prinzessinnen, die gerettet werden müssen, und hübschen Prinzen, die da sind, um sie zu retten.

Die Hoffnung besteht darin, dass das von seinem Team entwickelte KI-gesteuerte, der Rechtschreibprüfung ähnelnde Tool von Autoren und Verlegern sowie von Forschern genutzt wird, um integrativere Geschichten für Kinder zu erstellen, sagt Dakuo Wang, außerordentlicher Professor an der Northeastern University und einer von ihnen die Forscher des Projekts.

„Wenn ich in Zukunft ein kleines Mädchen bekomme, möchte ich nicht, dass sie sich entmutigt fühlt, diese Aufgaben zu übernehmen oder diese Herausforderungen zu meistern [or] Sagen wir, jemand kommt, um mich zu retten, oder es sollte nicht etwas sein, was ich als Mädchen tun würde“, sagt Wang. „Wenn wir eine Technologie entwickeln können, um diese Art von geschlechtsspezifischen Vorurteilen und Stereotypen automatisch zu erkennen oder zu kennzeichnen, dann ist das zumindest möglich.“ dienen als Leitplanke oder Sicherheitsnetz nicht nur für alte Märchen, sondern auch für die neuen Geschichten, die heute jeden Tag geschrieben und geschaffen werden.“

All diese Arbeiten begannen im Rahmen der laufenden Forschung des Teams darüber, wie KI dabei helfen kann, Sprachlernfähigkeiten für kleine Kinder zu entwickeln. Das Team interessierte sich bereits für Märchen als Werkzeuge zum Sprachenlernen und hatte Hunderte von Geschichten aus der ganzen Welt gesammelt, um sie als „Korpus“ für die Analyse ihres Algorithmus zu verwenden.

Sie rekrutierten eine Gruppe von Bildungsexperten – Lehrern und Wissenschaftlern –, um die Geschichten zu durchforsten und eine Liste mit Fragen und Antworten zu erstellen, die dabei helfen sollten, zu beweisen, ob ein Kind aus diesen Geschichten lernte. Das Endergebnis waren 10.000 Frage-Antwort-Paare – und die Erkenntnis, dass all diese Geschichten, egal woher sie kamen, „hartnäckige und tiefgreifende“ Geschlechterstereotypen enthielten.

Die Prinzessin isst einen Giftapfel, wird eingesperrt, entführt oder verflucht oder stirbt und hat keine Möglichkeit, ihre Situation zu ändern. Währenddessen töteten männliche Charaktere – Prinzen, Könige und Helden – Drachen, brachen die Flüche und retteten die Prinzessin.

Frühere Forschungen in diesem Bereich konzentrierten sich auf das, was Wang die „oberflächliche Ebene“ der Voreingenommenheit nennt. Das bedeutete, Geschichten zu analysieren und Wort- oder Phrasenpaarungen wie „Prinz“ und „mutig“ zu identifizieren, die Ideen und Identitäten auf spezifische Weise verbinden. Aber Wang und der Rest des Teams wollten tiefer gehen.

Sie konzentrierten sich auf „zeitliche narrative Ereignisketten“, die spezifische Kombination und Reihenfolge von Ereignissen und Handlungen, die eine Figur erlebt oder ausführt.

„Es sind tatsächlich die Erfahrungen und die Handlungen, die definieren, wer diese Person ist, und diese Handlungen beeinflussen unsere Leser darüber, was.“ [they] „Es sollte reichen oder nicht, diese fiktive Figur nachzuahmen“, sagt Wang.

Anhand der Hunderten von Geschichten, die es gesammelt hatte, erstellte das Team automatisierte Prozesse, um bei jedem Ereignis die Namen und Geschlechter der Charaktere zu extrahieren. Anschließend ordneten sie diese Ereignisse als Kette für jeden Charakter an. Sie haben außerdem einen Prozess automatisiert, um Ereignisse und Aktionen nach bestimmten Kategorien zu gruppieren. Jedes Ereignis wurde analysiert und mit einem Quotenverhältnis versehen, das angab, wie häufig es mit einer männlichen oder weiblichen Figur in Verbindung stand.

Von den 33.577 in der Studie analysierten Ereignissen wurden 69 % männlichen Charakteren und 31 % weiblichen Charakteren zugeschrieben. Die mit weiblichen Charakteren verbundenen Ereignisse waren oft mit häuslichen Aufgaben wie Pflegen, Putzen, Kochen und Nähen verbunden, während die Ereignisse mit männlichen Charakteren mit Misserfolg, Erfolg oder Aggression verbunden waren.

Mit all diesen Informationen haben Wang und das Team ein Tool zur Verarbeitung natürlicher Sprache entwickelt, das über die Analyse einzelner Ereignisse hinausgehen und Verzerrungen in Ereignisketten erkennen kann.

„Jemand wird gerettet, heiratet dann und lebt dann glücklich bis ans Ende seiner Tage; andere töteten das Monster, retteten die Prinzessin und lebten glücklich bis ans Ende ihrer Tage“, sagt Wang. „Es ist nicht der Teil ‚Glücklich bis ans Ende leben‘ oder ‚Heiraten‘, der anders ist. Es sind tatsächlich die Ereignisse, die vor diesen Ereignissen in einer Kette stattfinden, die einen Unterschied machen.“

Durch die Automatisierung dieses Prozesses hofft Wang, dass das Tool auch bei Menschen außerhalb der Forschungsgemeinschaft Verwendung finden wird, die diese Geschichten tatsächlich erstellen – oder neu erstellen. Auf diese Weise können sie verhindern, dass Geschichten diese veralteten, schädlichen Ideen an die nächste Generation weitergeben.

„Mit unserem Tool können sie einfach ihren ersten Entwurf in ein Tool wie dieses hochladen und es sollte eine Punktzahl oder einen Zähler generieren, der anzeigt: „Hier sind die Dinge, die Sie möglicherweise überprüfen möchten oder nicht.“ Wenn diese Absicht nicht das ist, was Sie zum Ausdruck bringen möchten, sollten Sie vielleicht über eine Neufassung nachdenken. „Hier sind einige Vorschläge“, sagt Wang.

Für die Zukunft planen Wang und das Team, ihre Arbeit auszuweiten, um auch andere Formen der Voreingenommenheit zu untersuchen. Sie werden ihr Tool auch verwenden, um die Vorurteile anderer KI zu bewerten. Sie hoffen, mit ihrem Algorithmus analysieren zu können, ob ChatGPT bei der Erstellung von Inhalten auf der Grundlage dieser Geschichten die gleichen geschlechtsspezifischen Vorurteile und Stereotypen aufweist.

„Wir schlagen vor, dass dies tatsächlich eine Aufgabe ist, eine Aufgabe, bei deren Bewältigung die technische Gemeinschaft tatsächlich helfen kann“, sagt Wang. „Wir sagen nicht, dass unsere Methode die beste ist. Wir sagen nur, dass unsere Methode die erste ist, die diese Aufgabe bewältigt, und diese Aufgabe ist so vorherrschend. Vielleicht sollten wir einen Teil unserer Aufmerksamkeit auf diese bestehenden sozialen Herausforderungen und Aufgaben richten.“ “

Mehr Informationen:
Paulina Toro Isaza et al.: Sind Märchen fair? Analyse der Geschlechterverzerrung in zeitlichen narrativen Ereignisketten von Kindermärchen, arXiv (2023). DOI: 10.48550/arxiv.2305.16641

Zeitschrifteninformationen:
arXiv

Bereitgestellt von der Northeastern University

ph-tech