Frauen in der KI: Kristine Gloria vom Aspen Institute fordert Frauen auf, das Feld zu betreten und „ihrer Neugier zu folgen“

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Kristine Gloria leitete zuvor die Emergent and Intelligent Technologies Initiative des Aspen Institute – das Aspen Institute ist der Think Tank mit Sitz in Washington DC, der sich auf wertebasierte Führung und politische Expertise konzentriert. Gloria hat einen Doktortitel in Kognitionswissenschaft und einen Master in Medienwissenschaften. Zu ihren früheren Arbeiten gehörten Forschungen bei der Internet Policy Research Initiative des MIT, dem in San Francisco ansässigen Startup Policy Lab und dem Center for Society, Technology and Policy an der UC Berkeley.

Fragen und Antworten

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Um ehrlich zu sein, habe ich meine Karriere definitiv nicht mit dem Ziel begonnen, in der KI zu arbeiten. Erstens war ich wirklich daran interessiert, die Schnittstelle zwischen Technologie und öffentlicher Politik zu verstehen. Zu dieser Zeit arbeitete ich an meinem Master in Medienwissenschaften und erforschte Ideen rund um Remix-Kultur und geistiges Eigentum. Ich lebte und arbeitete in DC als Archer Fellow für die New America Foundation. Ich erinnere mich noch genau daran, wie ich eines Tages in einem Raum voller politischer Entscheidungsträger und Politiker saß, die mit Begriffen herumwarfen, die nicht ganz ihren eigentlichen technischen Definitionen entsprachen. Kurz nach diesem Treffen wurde mir klar, dass ich die nötigen Qualifikationen brauchte, um die öffentliche Ordnung voranzutreiben. Ich ging zurück zur Schule und promovierte in Kognitionswissenschaft mit Schwerpunkt auf semantischen Technologien und Online-Datenschutz für Verbraucher. Ich hatte das große Glück, einen Mentor, Berater und ein Labor gefunden zu haben, das ein interdisziplinäres Verständnis dafür förderte, wie Technologie entworfen und gebaut wird. Deshalb habe ich meine technischen Fähigkeiten geschärft und gleichzeitig eine kritischere Sichtweise auf die vielen Arten entwickelt, in denen Technologie unser Leben beeinflusst. In meiner Rolle als Direktor für KI am Aspen Institute hatte ich dann das Privileg, Ideen zu entwickeln, mich zu engagieren und mit einigen der führenden Denker der KI zusammenzuarbeiten. Und ich fühlte mich immer zu denen hingezogen, die sich die Zeit nahmen, tief zu hinterfragen, ob und wie sich KI auf unser tägliches Leben auswirken würde.

Im Laufe der Jahre habe ich verschiedene KI-Initiativen geleitet und eine der bedeutsamsten ist, gerade erst anzufangen. Jetzt, als Gründungsmitglied und Direktor für strategische Partnerschaften und Innovation bei einer neuen gemeinnützigen Organisation, Young Futures, freue ich mich, diese Denkweise einfließen zu lassen, um unsere Mission zu verwirklichen, die digitale Welt zu einem einfacheren Ort zum Erwachsenwerden zu machen. Insbesondere da generative KI immer wichtiger wird und neue Technologien online gehen, ist es sowohl dringend als auch wichtig, dass wir Jugendlichen und ihren Betreuungseinheiten dabei helfen, sich gemeinsam in dieser riesigen digitalen Wildnis zurechtzufinden.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Auf zwei Initiativen bin ich besonders stolz. Erstens beschäftigt sich meine Arbeit mit der Aufdeckung der Spannungen, Fallstricke und Auswirkungen der KI auf marginalisierte Gemeinschaften. „Power and Progress in Algorithmic Bias“, veröffentlicht im Jahr 2021, fasst monatelanger Beteiligung und Forschung von Stakeholdern zu diesem Thema zusammen. In dem Bericht stellen wir eine meiner Lieblingsfragen aller Zeiten: „Wie können wir (Daten- und Algorithmenbetreiber) unsere eigenen Modelle umgestalten, um Prognosen für eine andere Zukunft zu erstellen, die sich auf die Bedürfnisse der Schwächsten konzentriert?“ Safiya Noble ist die ursprüngliche Autorin dieser Frage und sie ist ein ständiger Gegenstand meiner Arbeit. Die zweitwichtigste Initiative kam kürzlich aus meiner Zeit als Datenleiterin bei Blue Fever, einem Unternehmen mit der Mission, das Wohlbefinden junger Menschen in einem urteilsfreien und integrativen Online-Bereich zu verbessern. Insbesondere leitete ich das Design und die Entwicklung von Blue, dem ersten KI-Begleiter zur emotionalen Unterstützung. Ich habe in diesem Prozess viel gelernt. Vor allem habe ich ein tiefgreifendes neues Verständnis dafür gewonnen, welchen Einfluss ein virtueller Begleiter auf jemanden haben kann, der Probleme hat oder möglicherweise nicht über die nötigen Unterstützungssysteme verfügt. Blue wurde entworfen und gebaut, um seine „Energie der großen Geschwister“ einzubringen und Benutzern dabei zu helfen, über ihre mentalen und emotionalen Bedürfnisse nachzudenken.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Leider sind die Herausforderungen real und immer noch sehr aktuell. Ich habe bei allen Arten von Kollegen in diesem Bereich ein gewisses Maß an Unglauben an meine Fähigkeiten und Erfahrungen erlebt. Aber für jede einzelne dieser negativen Herausforderungen kann ich ein Beispiel dafür nennen, dass ein männlicher Kollege mein leidenschaftlichster Anfeuerer war. Es ist ein schwieriges Umfeld, und ich halte mich an diese Beispiele, um bei der Bewältigung zu helfen. Ich denke auch, dass sich in diesem Bereich in den letzten fünf Jahren so viel verändert hat. Die notwendigen Fähigkeiten und Berufserfahrungen, die als Teil der „KI“ gelten, sind nicht mehr ausschließlich auf die Informatik ausgerichtet.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Treten Sie ein und folgen Sie Ihrer Neugier. Dieser Bereich ist in ständiger Bewegung, und das interessanteste (und wahrscheinlich produktivste) Unterfangen besteht darin, dem Fachgebiet selbst kontinuierlich kritisch optimistisch gegenüberzustehen.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Ich denke tatsächlich, dass einige der drängendsten Probleme, mit denen die KI konfrontiert ist, dieselben Probleme sind, die wir seit der Einführung des Webs nicht ganz gelöst haben. Hierbei handelt es sich um Fragen rund um Entscheidungsfreiheit, Autonomie, Privatsphäre, Fairness, Gerechtigkeit usw. Diese sind von zentraler Bedeutung dafür, wie wir uns inmitten der Maschinen positionieren. Ja, KI kann es erheblich komplizierter machen – aber auch gesellschaftspolitische Veränderungen können es tun.

Welche Probleme sollten KI-Benutzer beachten?

KI-Benutzer sollten sich darüber im Klaren sein, wie diese Systeme ihre eigene Entscheidungsfreiheit und Autonomie erschweren oder verbessern. Darüber hinaus ist es angesichts der Diskussion darüber, wie sich Technologie und insbesondere KI auf unser Wohlbefinden auswirken können, wichtig, sich daran zu erinnern, dass es bewährte Instrumente gibt, um negativere Ergebnisse zu bewältigen.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Ein verantwortungsvoller Aufbau von KI ist mehr als nur der Code. Ein wirklich verantwortungsvoller Build berücksichtigt Design, Governance, Richtlinien und Geschäftsmodell. Alle treiben den anderen voran, und wir werden weiterhin scheitern, wenn wir uns nur darum bemühen, einen Teil des Aufbaus in Angriff zu nehmen.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Eine besondere Aufgabe, die ich bei Mozilla Ventures für die gebotene Sorgfalt bewundere, ist eine KI-Modellkarte. Diese von Timnit Gebru und anderen entwickelte Praxis der Erstellung von Modellkarten ermöglicht es Teams – wie Geldgebern – die Risiken und Sicherheitsprobleme der in einem System verwendeten KI-Modelle zu bewerten. Darüber hinaus sollten Investoren im Zusammenhang mit dem oben Gesagten das System ganzheitlich hinsichtlich seiner Leistungsfähigkeit und seiner Fähigkeit, verantwortungsvoll aufgebaut zu werden, bewerten. Wenn Ihr Bau beispielsweise über Vertrauens- und Sicherheitsmerkmale verfügt oder eine Modellkarte veröffentlicht wurde, Ihr Ertragsmodell jedoch gefährdete Bevölkerungsdaten ausnutzt, liegt eine Fehleinschätzung Ihrer Absichten als Investor vor. Ich bin der Meinung, dass man verantwortungsvoll bauen und trotzdem profitabel sein kann. Abschließend würde ich mir mehr Möglichkeiten für die gemeinsame Finanzierung von Investoren wünschen. Im Bereich des Wohlbefindens und der psychischen Gesundheit werden die Lösungen vielfältig und umfangreich sein, da kein Mensch gleich ist und keine Lösung für alle gilt. Ein gemeinsames Vorgehen von Anlegern, die an einer Lösung des Problems interessiert sind, wäre eine willkommene Ergänzung.

tch-1-tech