Frauen in der KI: Claire Leibowicz, Expertin für KI und Medienintegrität bei PAI

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Claire Leibowicz ist Leiterin des Programms für KI und Medienintegrität bei der Partnership on AI (PAI), der von Amazon, Meta, Google, Microsoft und anderen unterstützten Branchengruppe, die sich für den „verantwortungsvollen“ Einsatz von KI-Technologie einsetzt. Sie leitet außerdem den Lenkungsausschuss für KI und Medienintegrität von PAI.

Im Jahr 2021 war Leibowicz Journalistik-Stipendiatin beim Tablet Magazine und im Jahr 2022 war sie Fellow am Bellagio Center der Rockefeller Foundation mit Schwerpunkt auf KI-Governance. Leibowicz – der einen BA in Psychologie und Informatik von Harvard und einen Master-Abschluss von Oxford besitzt – hat Unternehmen, Regierungen und gemeinnützige Organisationen in den Bereichen KI-Governance, generative Medien und digitale Informationen beraten.

Fragen und Antworten

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Es mag paradox erscheinen, aber ich bin aus einem Interesse am menschlichen Verhalten zum KI-Bereich gekommen. Ich bin in New York aufgewachsen und war schon immer fasziniert davon, wie vielfältig die Menschen dort miteinander interagieren und wie eine so vielfältige Gesellschaft entsteht. Ich war neugierig auf große Fragen, die sich auf Wahrheit und Gerechtigkeit auswirken, etwa wie wir uns dafür entscheiden, anderen zu vertrauen. Was führt zu Konflikten zwischen Gruppen? Warum glauben Menschen, dass bestimmte Dinge wahr sind und andere nicht? Ich begann in meinem akademischen Leben mit der Erforschung dieser Fragen durch kognitionswissenschaftliche Forschung und erkannte schnell, dass die Technologie die Antworten auf diese Fragen beeinflusste. Ich fand es auch faszinierend, wie künstliche Intelligenz eine Metapher für menschliche Intelligenz sein könnte.

Das brachte mich in die Informatik-Klassenzimmer, wo die Lehrkräfte – ich muss Professorin Barbara Grosz, eine Vorreiterin in der Verarbeitung natürlicher Sprache, und Professor Jim Waldo, der seinen Hintergrund in Philosophie und Informatik vereinte – hervorheben, wie wichtig es ist, ihre Klassenzimmer mit zu füllen Nicht-Informatik- und Ingenieurstudiengänge konzentrieren sich auf die sozialen Auswirkungen von Technologien, einschließlich KI. Und das war, bevor „KI-Ethik“ ein eigenständiges und beliebtes Fachgebiet war. Sie machten deutlich, dass technisches Verständnis zwar von Vorteil ist, Technologie jedoch weite Bereiche wie Geopolitik, Wirtschaft, soziales Engagement und mehr beeinflusst und daher Menschen mit unterschiedlichem disziplinärem Hintergrund erfordert, sich zu scheinbar technologischen Fragen zu äußern.

Ganz gleich, ob Sie als Pädagoge darüber nachdenken, wie sich generative KI-Tools auf die Pädagogik auswirken, ob Sie als Museumskurator mit einer prädiktiven Route für eine Ausstellung experimentieren oder als Arzt neue Bilderkennungsmethoden zum Lesen von Laborberichten erforschen – KI kann sich auf Ihr Fachgebiet auswirken. Diese Realität, dass KI viele Bereiche berührt, hat mich fasziniert: Die Arbeit im KI-Bereich zeichnet sich durch intellektuelle Vielfalt aus, und dies bringt die Chance mit sich, viele Facetten der Gesellschaft zu beeinflussen.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Ich bin stolz auf die Arbeit in der KI, die unterschiedliche Perspektiven auf überraschende und handlungsorientierte Weise zusammenbringt – die Meinungsverschiedenheiten nicht nur ausgleicht, sondern fördert. Ich bin vor sechs Jahren als zweiter Mitarbeiter der Organisation zum PAI gekommen und habe sofort gespürt, dass die Organisation in ihrem Engagement für vielfältige Perspektiven wegweisend ist. PAI betrachtete diese Arbeit als eine wesentliche Voraussetzung für die KI-Governance, die Schäden abmildert und zu einer praktischen Einführung und Wirkung im KI-Bereich führt. Das hat sich bewahrheitet, und es hat mir Mut gemacht, die Multidisziplinarität von PAI mitzugestalten und dabei zuzusehen, wie die Institution gemeinsam mit dem KI-Bereich wächst.

Unsere Arbeit an synthetischen Medien in den letzten sechs Jahren begann lange bevor generative KI ins öffentliche Bewusstsein gelangte und veranschaulicht die Möglichkeiten einer Multistakeholder-KI-Governance. Im Jahr 2020 haben wir mit neun verschiedenen Organisationen aus Zivilgesellschaft, Industrie und Medien zusammengearbeitet, um Facebooks Deepfake Detection Challenge zu gestalten, einen maschinellen Lernwettbewerb zur Entwicklung von Modellen zur Erkennung von KI-generierten Medien. Diese Außenperspektiven trugen dazu bei, die Fairness und Ziele der Gewinnermodelle zu prägen – und zeigten, wie Menschenrechtsexperten und Journalisten zu einer scheinbar technischen Frage wie der Deepfake-Erkennung beitragen können. Letztes Jahr haben wir einen normativen Leitfaden zu verantwortungsvollen synthetischen Medien veröffentlicht – PAIs Verantwortungsvolle Praktiken für synthetische Medien – das inzwischen 18 Unterstützer mit sehr unterschiedlichem Hintergrund hat, von OpenAI über TikTok bis hin zu Code for Africa, Bumble, BBC und WITNESS. In der Lage zu sein, umsetzbare Leitlinien zu Papier zu bringen, die auf technischen und sozialen Realitäten basieren, ist eine Sache, aber es ist eine andere, tatsächlich institutionelle Unterstützung zu erhalten. In diesem Fall haben sich die Institutionen dazu verpflichtet, transparente Berichte darüber bereitzustellen, wie sie sich im Bereich der synthetischen Medien bewegen. KI-Projekte, die konkrete Leitlinien bieten und zeigen, wie diese Leitlinien in allen Institutionen umgesetzt werden können, gehören für mich zu den bedeutungsvollsten.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Ich hatte im Laufe meiner Karriere sowohl wunderbare männliche als auch weibliche Mentoren. Menschen zu finden, die mich gleichzeitig unterstützen und herausfordern, ist der Schlüssel zu jedem Wachstum, das ich erlebt habe. Ich finde, dass die Konzentration auf gemeinsame Interessen und die Diskussion der Fragen, die den Bereich der KI bewegen, Menschen mit unterschiedlichen Hintergründen und Perspektiven zusammenbringen kann. Interessanterweise besteht das Team von PAI zu mehr als der Hälfte aus Frauen, und viele der Organisationen, die sich mit KI und Gesellschaft oder verantwortungsvollen KI-Fragen befassen, haben viele Frauen im Personal. Dies steht oft im Gegensatz zu denen, die in Ingenieurs- und KI-Forschungsteams arbeiten, und ist ein Schritt in die richtige Richtung für die Vertretung im KI-Ökosystem.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Wie ich in der vorherigen Frage angesprochen habe, waren einige der hauptsächlich von Männern dominierten Bereiche innerhalb der KI, denen ich begegnet bin, auch die technischsten. Auch wenn wir technischen Scharfsinn nicht über andere Formen der Kompetenz im KI-Bereich stellen sollten, habe ich festgestellt, dass eine technische Ausbildung in solchen Bereichen sowohl mein Selbstvertrauen als auch meine Effektivität gestärkt hat. Wir brauchen eine gleichberechtigte Vertretung in technischen Rollen und eine Offenheit für das Fachwissen von Leuten, die Experten in anderen Bereichen wie Bürgerrechten und Politik sind, die ausgewogener vertreten sind. Gleichzeitig ist die Ausstattung von mehr Frauen mit technischen Kenntnissen der Schlüssel zu einer ausgewogenen Vertretung im KI-Bereich.

Ich habe es auch als äußerst sinnvoll empfunden, mit Frauen im KI-Bereich in Kontakt zu treten, die es geschafft haben, Familien- und Berufsleben unter einen Hut zu bringen. Durch die Suche nach Vorbildern, mit denen ich über große Fragen im Zusammenhang mit Karriere und Elternschaft sprechen kann – und über einige der einzigartigen Herausforderungen, mit denen Frauen bei der Arbeit immer noch konfrontiert sind – fühle ich mich besser gerüstet, einige dieser Herausforderungen zu bewältigen, sobald sie auftreten.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Die Fragen nach Wahrheit und Vertrauen online – und offline – werden mit der Weiterentwicklung der KI immer schwieriger. Da Inhalte, die von Bildern über Videos bis hin zu Texten reichen, KI-generiert oder verändert werden können, ist Seeing da noch zu glauben? Wie können wir uns auf Beweise verlassen, wenn Dokumente einfach und realistisch manipuliert werden können? Können wir online Räume nur für Menschen haben, wenn es extrem einfach ist, eine echte Person nachzuahmen? Wie gehen wir mit den Kompromissen um, die KI zwischen freier Meinungsäußerung und der Möglichkeit, dass KI-Systeme Schaden anrichten können, mit sich bringt? Allgemeiner gesagt: Wie stellen wir sicher, dass das Informationsumfeld nicht nur von einigen wenigen Unternehmen und ihren Mitarbeitern geprägt wird, sondern auch die Perspektiven von Stakeholdern aus der ganzen Welt, einschließlich der Öffentlichkeit, einbezieht?

Neben diesen spezifischen Fragen beschäftigte sich PAI mit anderen Aspekten der KI und der Gesellschaft, einschließlich der Frage, wie wir Fairness und Voreingenommenheit im Zeitalter der algorithmischen Entscheidungsfindung berücksichtigen, wie sich die Arbeit auf die KI auswirkt und von ihr beeinflusst wird, wie man den verantwortungsvollen Einsatz von KI-Systemen steuert usw sogar wie man KI-Systeme so gestalten kann, dass sie unzählige Perspektiven besser widerspiegeln. Auf struktureller Ebene müssen wir darüber nachdenken, wie die KI-Governance durch die Einbeziehung unterschiedlicher Perspektiven große Kompromisse bewältigen kann.

Welche Probleme sollten KI-Benutzer beachten?

Erstens sollten KI-Benutzer wissen: Wenn etwas zu gut klingt, um wahr zu sein, ist es das wahrscheinlich auch.

Der generative KI-Boom im vergangenen Jahr spiegelt natürlich enormen Einfallsreichtum und Innovation wider, hat aber auch dazu geführt, dass öffentliche Botschaften zum Thema KI oft übertrieben und ungenau sind.

KI-Nutzer sollten auch verstehen, dass KI nicht revolutionär ist, sondern bestehende Probleme und Chancen verschärft und vergrößert. Das bedeutet nicht, dass sie KI weniger ernst nehmen sollten, sondern dieses Wissen vielmehr als hilfreiche Grundlage für die Navigation in einer zunehmend KI-durchdrungenen Welt nutzen sollten. Wenn Sie beispielsweise befürchten, dass Menschen ein Video vor einer Wahl durch eine Änderung der Bildunterschrift falsch kontextualisieren könnten, sollten Sie sich Gedanken über die Geschwindigkeit und das Ausmaß machen, mit denen sie mithilfe der Deepfake-Technologie in die Irre führen können. Wenn Sie Bedenken hinsichtlich des Einsatzes von Überwachung am Arbeitsplatz haben, sollten Sie auch darüber nachdenken, wie KI diese Überwachung einfacher und umfassender machen wird. Eine gesunde Skepsis gegenüber der Neuheit von KI-Problemen aufrechtzuerhalten und gleichzeitig ehrlich zu sein, was den aktuellen Moment besonders macht, ist ein hilfreicher Rahmen für Benutzer, die sie in ihre Begegnungen mit KI einbringen können.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Der verantwortungsvolle Aufbau von KI erfordert, dass wir unsere Vorstellung davon erweitern, wer beim „Aufbau“ von KI eine Rolle spielt. Natürlich ist die Beeinflussung von Technologieunternehmen und Social-Media-Plattformen eine wichtige Möglichkeit, die Auswirkungen von KI-Systemen zu beeinflussen, und diese Institutionen sind für den verantwortungsvollen Aufbau von Technologie von entscheidender Bedeutung. Gleichzeitig müssen wir anerkennen, wie vielfältige Institutionen aus Zivilgesellschaft, Industrie, Medien, Wissenschaft und Öffentlichkeit weiterhin einbezogen werden müssen, um eine verantwortungsvolle KI aufzubauen, die dem öffentlichen Interesse dient.

Nehmen wir zum Beispiel die verantwortungsvolle Entwicklung und den Einsatz synthetischer Medien.

Während sich Technologieunternehmen möglicherweise um ihre Verantwortung sorgen, wenn es darum geht, wie ein synthetisches Video die Benutzer vor einer Wahl beeinflussen kann, sind Journalisten möglicherweise besorgt darüber, dass Betrüger synthetische Videos erstellen, die vorgeben, von ihrer vertrauenswürdigen Nachrichtenmarke zu stammen. Menschenrechtsverteidiger könnten die Verantwortung darin sehen, wie KI-generierte Medien die Wirkung von Videos als Beweis für Missbräuche verringern. Und Künstler könnten von der Möglichkeit, sich durch generative Medien auszudrücken, begeistert sein, sind aber gleichzeitig besorgt darüber, wie ihre Kreationen ohne ihre Zustimmung genutzt werden könnten, um KI-Modelle zu trainieren, die neue Medien produzieren. Diese vielfältigen Überlegungen zeigen, wie wichtig es ist, verschiedene Interessengruppen in Initiativen und Bemühungen zum verantwortungsvollen Aufbau von KI einzubeziehen, und wie unzählige Institutionen von der Art und Weise, wie KI in die Gesellschaft integriert wird, betroffen sind und diese beeinflussen.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Vor Jahren hörte ich, wie DJ Patil, der ehemalige Chefdatenwissenschaftler im Weißen Haus, eine Überarbeitung des allgegenwärtigen Mantras „Beweg dich schnell und mach Dinge kaputt“ der frühen Social-Media-Ära beschrieb, das mir im Gedächtnis geblieben ist. Er schlug vor, dass das Feld „zielstrebig voranschreitet und Dinge in Ordnung bringt“.

Das gefiel mir, weil es keine Stagnation oder einen Verzicht auf Innovation bedeutete, sondern Absicht und die Möglichkeit, innovativ zu sein und gleichzeitig Verantwortung zu übernehmen. Investoren sollten dazu beitragen, diese Mentalität zu fördern – indem sie ihren Portfoliounternehmen mehr Zeit und Raum geben, verantwortungsvolle KI-Praktiken einzuführen, ohne den Fortschritt zu behindern. Oftmals beschreiben Institutionen begrenzte Zeit und enge Fristen als limitierenden Faktor, um das „Richtige“ zu tun, und Investoren können ein wichtiger Katalysator für die Veränderung dieser Dynamik sein.

Je mehr ich im Bereich KI gearbeitet habe, desto mehr habe ich mich mit zutiefst humanistischen Fragen auseinandergesetzt. Und diese Fragen erfordern, dass wir alle sie beantworten.

tch-1-tech