Frauen in der KI: Allison Cohen über den Aufbau verantwortungsvoller KI-Projekte

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Allison Cohen ist leitende Projektmanagerin für angewandte KI bei Mila, einer in Quebec ansässigen Gemeinschaft von mehr als 1.200 Forschern, die sich auf KI und maschinelles Lernen spezialisiert haben. Sie arbeitet mit Forschern, Sozialwissenschaftlern und externen Partnern zusammen, um gesellschaftlich nützliche KI-Projekte umzusetzen. Zu Cohens Arbeitsportfolio gehören ein Tool zur Erkennung von Frauenfeindlichkeit, eine App zur Identifizierung von Online-Aktivitäten mutmaßlicher Opfer von Menschenhandel und eine landwirtschaftliche App zur Empfehlung nachhaltiger landwirtschaftlicher Praktiken in Ruanda.

Zuvor war Cohen Co-Leiter für die Entdeckung von KI-Medikamenten bei der Global Partnership on Artificial Intelligence, einer Organisation zur Steuerung der verantwortungsvollen Entwicklung und Nutzung von KI. Sie war außerdem als KI-Strategieberaterin bei Deloitte und als Projektberaterin beim Centre for International Digital Policy, einem unabhängigen kanadischen Think Tank, tätig.

Fragen und Antworten

Kurz gesagt, wie haben Sie mit der KI angefangen? Was hat Sie an diesem Fachgebiet gereizt?

Die Erkenntnis, dass wir alles mathematisch modellieren können, von der Gesichtserkennung bis zur Aushandlung von Handelsabkommen, veränderte meine Sicht auf die Welt, was KI für mich so faszinierend machte. Ironischerweise sehe ich jetzt, da ich im Bereich KI arbeite, dass wir diese Art von Phänomenen nicht mit Algorithmen erfassen können – und in vielen Fällen auch nicht sollten.

Während meines Masterstudiums in Global Affairs an der University of Toronto kam ich mit diesem Fachgebiet in Berührung. Das Programm sollte den Studierenden beibringen, sich in den Systemen zurechtzufinden, die die Weltordnung beeinflussen – von Makroökonomie über internationales Recht bis hin zur menschlichen Psychologie. Als ich jedoch mehr über KI erfuhr, wurde mir klar, wie wichtig sie für die Weltpolitik werden würde und wie wichtig es war, mich über das Thema zu informieren.

Was mir den Einstieg in dieses Fachgebiet ermöglichte, war ein Essay-Wettbewerb. Für den Wettbewerb schrieb ich einen Aufsatz, in dem ich beschrieb, wie Psychedelika den Menschen helfen würden, auf einem von KI durchsetzten Arbeitsmarkt wettbewerbsfähig zu bleiben, was mich für die Teilnahme am St. Gallen Symposium im Jahr 2018 qualifizierte (es war ein kreativer Schreibaufsatz). Meine Einladung und die anschließende Teilnahme an dieser Veranstaltung gaben mir das Selbstvertrauen, mein Interesse auf diesem Gebiet weiter zu verfolgen.

Auf welche Arbeit im KI-Bereich sind Sie am meisten stolz?

Eines der von mir geleiteten Projekte bestand darin, einen Datensatz zu erstellen, der Fälle subtiler und offenkundiger Voreingenommenheit gegenüber Frauen enthält.

Für dieses Projekt war die Besetzung und Leitung eines multidisziplinären Teams aus Experten für die Verarbeitung natürlicher Sprache, Linguisten und Gender-Studies-Spezialisten während des gesamten Projektlebenszyklus von entscheidender Bedeutung. Darauf bin ich ziemlich stolz. Ich habe aus erster Hand erfahren, warum dieser Prozess für die Erstellung verantwortungsvoller Anwendungen von grundlegender Bedeutung ist und warum er nicht ausreichend durchgeführt wird – es ist harte Arbeit! Wenn Sie jeden dieser Beteiligten dabei unterstützen können, effektiv über die Disziplinen hinweg zu kommunizieren, können Sie eine Arbeit ermöglichen, die jahrzehntelange Traditionen aus den Sozialwissenschaften und modernste Entwicklungen in der Informatik verbindet.

Ich bin auch stolz darauf, dass dieses Projekt von der Community gut angenommen wurde. Einer unserer Artikel erhielt im Rahmen des Workshops zur sozial verantwortlichen Sprachmodellierung auf einer der führenden KI-Konferenzen, NeurIPS, eine besondere Anerkennung. Außerdem inspirierte diese Arbeit einen ähnlichen interdisziplinären Prozess, der von geleitet wurde AI Schwedendie das Werk an die schwedischen Vorstellungen und Ausdrucksformen von Frauenfeindlichkeit anpasste.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Es ist bedauerlich, dass wir in einer so hochmodernen Branche immer noch eine problematische Geschlechterdynamik beobachten. Es betrifft nicht nur Frauen – wir alle verlieren. Ich habe mich sehr von einem Konzept namens „feministische Standpunkttheorie“ inspirieren lassen, das ich in Sasha Costanza-Chocks Buch „Design Justice“ kennengelernt habe. \

Die Theorie besagt, dass marginalisierte Gemeinschaften, deren Wissen und Erfahrungen nicht von den gleichen Privilegien profitieren wie andere, über ein Weltbewusstsein verfügen, das faire und integrative Veränderungen herbeiführen kann. Natürlich sind nicht alle marginalisierten Gemeinschaften gleich, und auch die Erfahrungen der Einzelnen innerhalb dieser Gemeinschaften sind nicht gleich.

Allerdings sind unterschiedliche Perspektiven dieser Gruppen von entscheidender Bedeutung, um uns bei der Bewältigung, Herausforderung und dem Abbau aller Arten struktureller Herausforderungen und Ungleichheiten zu helfen. Aus diesem Grund kann das Versäumnis, Frauen einzubeziehen, den Bereich der KI für einen noch größeren Teil der Bevölkerung ausschließen und die Machtdynamik auch außerhalb des Bereichs verstärken.

Im Hinblick darauf, wie ich mit einer von Männern dominierten Branche umgegangen bin, habe ich festgestellt, dass Verbündete sehr wichtig sind. Diese Verbündeten sind das Ergebnis starker und vertrauensvoller Beziehungen. Ich hatte zum Beispiel das große Glück, Freunde wie Peter Kurzwelly zu haben, der mir sein Fachwissen im Bereich Podcasting zur Verfügung stellte, um mich bei der Erstellung eines von Frauen geleiteten und auf Frauen ausgerichteten Podcasts mit dem Titel „The World We’re Building“ zu unterstützen. Dieser Podcast ermöglicht es uns, die Arbeit von noch mehr Frauen und nicht-binären Menschen im Bereich KI hervorzuheben.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Finden Sie eine offene Tür. Es muss nicht bezahlt werden, es muss kein Beruf sein und es muss nicht einmal mit Ihrem Hintergrund oder Ihrer Erfahrung übereinstimmen. Wenn Sie eine Lücke finden, können Sie diese nutzen, um Ihre Stimme im Raum zu schärfen und von dort aus aufzubauen. Wenn Sie sich ehrenamtlich engagieren, geben Sie Ihr Bestes – so können Sie sich von der Masse abheben und hoffentlich so schnell wie möglich für Ihre Arbeit bezahlt werden.

Natürlich ist es ein Privileg, sich ehrenamtlich engagieren zu dürfen, was ich ebenfalls anerkennen möchte.

Als ich während der Pandemie meinen Job verlor und die Arbeitslosigkeit in Kanada ein Allzeithoch erreichte, waren nur sehr wenige Unternehmen auf der Suche nach KI-Talenten, und diejenigen, die einstellten, waren nicht auf der Suche nach Global Affairs-Studenten mit acht Monaten Erfahrung in der Beratung . Während ich mich um eine Stelle bewarb, begann ich, ehrenamtlich bei einer KI-Ethikorganisation zu arbeiten.

In einem der Projekte, an denen ich während meiner Freiwilligenarbeit gearbeitet habe, ging es darum, ob es einen Urheberrechtsschutz für von KI produzierte Kunst geben sollte. Ich habe mich an einen Anwalt einer kanadischen KI-Anwaltskanzlei gewandt, um den Bereich besser zu verstehen. Sie hat mich mit jemandem verbunden CIFAR, der mich mit Benjamin Prud’homme, dem Geschäftsführer von Milas AI for Humanity Team, verbunden hat. Es ist erstaunlich, dass ich durch eine Reihe von Austauschen über KI-Kunst von einer Karrieremöglichkeit erfahren habe, die seitdem mein Leben verändert hat.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Ich habe drei Antworten auf diese Frage, die irgendwie miteinander verbunden sind. Ich denke, wir müssen Folgendes herausfinden:

  1. Wie lässt sich die Tatsache vereinbaren, dass KI auf Skalierung ausgelegt ist, und gleichzeitig sicherstellen, dass die Tools, die wir entwickeln, an das Wissen, die Erfahrung und die Bedürfnisse vor Ort angepasst sind?
  2. Wenn wir Werkzeuge entwickeln wollen, die an den lokalen Kontext angepasst sind, müssen wir Anthropologen und Soziologen in den KI-Designprozess einbeziehen. Doch es gibt eine Vielzahl von Anreizstrukturen und anderen Hindernissen, die einer sinnvollen interdisziplinären Zusammenarbeit im Wege stehen. Wie können wir das überwinden?
  3. Wie können wir den Designprozess noch stärker beeinflussen, als einfach nur multidisziplinäres Fachwissen einzubeziehen? Wie können wir konkret die Anreize ändern, sodass wir Tools entwickeln, die für diejenigen konzipiert sind, die sie am dringendsten benötigen, und nicht für diejenigen, deren Daten oder Geschäft am profitabelsten sind?

Welche Probleme sollten KI-Benutzer beachten?

Arbeitsausbeutung ist eines der Themen, die meiner Meinung nach nicht ausreichend behandelt werden. Es gibt viele KI-Modelle, die mithilfe überwachter Lernmethoden aus gekennzeichneten Daten lernen. Wenn sich das Modell auf gekennzeichnete Daten stützt, gibt es Personen, die diese Kennzeichnung vornehmen müssen (z. B. jemand fügt dem Bild einer Katze die Bezeichnung „Katze“ hinzu). Diese Personen (Annotatoren) sind häufig Opfer ausbeuterischer Praktiken. Bei Modellen, bei denen es nicht erforderlich ist, dass die Daten während des Trainingsprozesses gekennzeichnet werden (wie es bei einigen generativen KI- und anderen Basismodellen der Fall ist), können Datensätze immer noch auf ausbeuterische Weise erstellt werden, da die Entwickler häufig weder eine Einwilligung einholen noch eine Entschädigung leisten oder Quellenangabe an die Datenersteller.

Ich würde empfehlen, sich die Arbeit von Krystal Kauffman anzuschauen, von der ich mich sehr gefreut habe, dass sie in dieser Tech-Reihe vorgestellt wird. Sie macht Fortschritte beim Eintreten für die Arbeitsrechte von Kommentatoren, einschließlich eines existenzsichernden Lohns, der Beendigung von „Massenablehnungspraktiken“ und Engagementpraktiken, die mit den grundlegenden Menschenrechten im Einklang stehen (als Reaktion auf Entwicklungen wie aufdringliche Überwachung).

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Menschen orientieren sich oft an ethischen KI-Prinzipien, um zu behaupten, dass ihre Technologie verantwortungsvoll ist. Leider kann die ethische Reflexion erst beginnen, nachdem bereits eine Reihe von Entscheidungen getroffen wurden, darunter unter anderem:

  1. Was bauen Sie?
  2. Wie baust du es?
  3. Wie wird es eingesetzt?

Wenn Sie warten, bis diese Entscheidungen getroffen wurden, werden Sie unzählige Gelegenheiten verpasst haben, verantwortungsvolle Technologie zu entwickeln.

Meiner Erfahrung nach besteht der beste Weg, eine verantwortungsvolle KI aufzubauen, darin, sich bereits in den frühesten Phasen Ihres Prozesses darüber im Klaren zu sein, wie Ihr Problem definiert ist und wessen Interessen es befriedigt. wie die Orientierung bereits bestehende Machtdynamiken unterstützt oder herausfordert; und welche Gemeinschaften durch den Einsatz der KI gestärkt oder entmachtet werden.

Wenn Sie sinnvolle Lösungen schaffen wollen, müssen Sie diese Machtsysteme mit Bedacht steuern.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Fragen Sie nach den Werten des Teams. Wenn die Werte zumindest teilweise von der örtlichen Gemeinschaft definiert werden und ein gewisses Maß an Verantwortung gegenüber dieser Gemeinschaft besteht, ist es wahrscheinlicher, dass das Team verantwortungsvolle Praktiken einführt.

tch-1-tech