Um Akademikerinnen und anderen Frauen mit Schwerpunkt KI ihre wohlverdiente – und längst überfällige – Zeit im Rampenlicht zu geben, hat Tech eine Reihe von Interviews veröffentlicht, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Wir veröffentlichen diese Beiträge das ganze Jahr über, während der KI-Boom anhält, und heben wichtige Arbeiten hervor, die oft unerkannt bleiben. Weitere Profile finden Sie hier.
Miriam Vogel ist CEO von EqualAI, einer gemeinnützigen Organisation, die gegründet wurde, um unbewusste Vorurteile in der KI abzubauen und eine verantwortungsvolle KI-Governance zu fördern. Sie ist außerdem Vorsitzende des kürzlich gegründeten National AI Advisory Committee, das vom Kongress beauftragt wurde, Präsident Joe Biden und das Weiße Haus in Sachen KI-Politik zu beraten, und lehrt Technologierecht und -politik am Georgetown University Law Center.
Vogel war zuvor stellvertretender Generalstaatsanwalt im Justizministerium und beriet den Generalstaatsanwalt und den stellvertretenden Generalstaatsanwalt in einer breiten Palette rechtlicher, politischer und operativer Fragen. Als Vorstandsmitglied des Responsible AI Institute und leitender Berater des Center for Democracy and Technology beriet Vogel die Führung des Weißen Hauses bei Initiativen, die von Frauen-, Wirtschafts-, Regulierungs- und Lebensmittelsicherheitspolitik bis hin zu Fragen der Strafjustiz reichten.
Wie sind Sie zur KI gekommen? Was hat Sie an diesem Bereich gereizt?
Ich begann meine Karriere in der Regierung, zunächst als Praktikant im Senat, im Sommer vor der 11. Klasse. Ich wurde vom Politikfieber gepackt und verbrachte die nächsten Sommer damit, auf dem Capitol Hill und dann im Weißen Haus zu arbeiten. Mein Schwerpunkt lag damals auf Bürgerrechten, was nicht der konventionelle Weg zur künstlichen Intelligenz ist, aber rückblickend macht es absolut Sinn.
Nach dem Jurastudium entwickelte sich meine Karriere von einer auf geistiges Eigentum spezialisierten Unterhaltungsrechtsanwältin zu einer Bürgerrechts- und Sozialarbeit in der Exekutive. Während meiner Zeit im Weißen Haus hatte ich das Privileg, die Task Force für Lohngleichheit zu leiten, und während meiner Zeit als stellvertretende Generalstaatsanwältin unter der ehemaligen stellvertretenden Generalstaatsanwältin Sally Yates leitete ich die Erstellung und Entwicklung eines Trainings zur impliziten Voreingenommenheit für die Bundespolizei.
Aufgrund meiner Erfahrung als Anwalt im Technologiebereich und meines Hintergrunds in der Politik zur Bekämpfung von Voreingenommenheit und systematischen Schäden wurde ich gebeten, EqualAI zu leiten. Ich fühlte mich zu dieser Organisation hingezogen, weil mir klar wurde, dass KI die nächste Grenze für die Bürgerrechte darstellt. Ohne Wachsamkeit könnten jahrzehntelange Fortschritte in Codezeilen zunichte gemacht werden.
Ich war schon immer von den Möglichkeiten, die Innovationen schaffen, begeistert und bin auch heute noch davon überzeugt, dass KI erstaunliche neue Chancen für ein erfolgreiches Leben in einer größeren Bevölkerungsgruppe bieten kann – allerdings nur, wenn wir in dieser kritischen Phase darauf achten, dass mehr Menschen in sinnvoller Weise an ihrer Entstehung und Entwicklung teilhaben können.
Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und im weiteren Sinne der männerdominierten KI-Branche?
Ich bin grundsätzlich davon überzeugt, dass wir alle dazu beitragen müssen, dass unsere KI so effektiv, effizient und nützlich wie möglich ist. Das bedeutet, dass wir bei ihrer Entwicklung die Stimmen der Frauen stärker unterstützen müssen (die übrigens für mehr als 85 % der Einkäufe in den USA verantwortlich sind, sodass es ein kluger Geschäftszug ist, sicherzustellen, dass ihre Interessen und ihre Sicherheit berücksichtigt werden), sowie die Stimmen anderer unterrepräsentierter Bevölkerungsgruppen unterschiedlichen Alters, aus verschiedenen Regionen, Ethnien und Nationalitäten, die nicht ausreichend beteiligt sind.
Auf dem Weg zur Gleichstellung der Geschlechter müssen wir dafür sorgen, dass mehr Stimmen und Perspektiven berücksichtigt werden, um eine KI zu entwickeln, die für alle Verbraucher funktioniert – und nicht nur eine KI, die für die Entwickler funktioniert.
Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?
Erstens ist es nie zu spät, anzufangen. Niemals. Ich ermutige alle Großeltern, OpenAIs ChatGPT, Microsofts Copilot oder Googles Gemini auszuprobieren. Wir alle müssen uns KI-kompetent aneignen, um in einer Wirtschaft, die künftig von KI angetrieben wird, erfolgreich zu sein. Und das ist spannend! Wir alle haben eine Rolle dabei zu spielen. Egal, ob Sie eine Karriere in der KI beginnen oder KI zur Unterstützung Ihrer Arbeit nutzen, Frauen sollten KI-Tools ausprobieren, sehen, was diese Tools können und was nicht, ob sie für sie funktionieren und sich generell KI-versiert aneignen.
Zweitens erfordert eine verantwortungsvolle KI-Entwicklung mehr als nur ethische Informatiker. Viele Menschen glauben, dass für den KI-Bereich ein Abschluss in Informatik oder einem anderen MINT-Fach erforderlich ist. In Wirklichkeit jedoch braucht KI die Perspektiven und das Fachwissen von Frauen und Männern aller Hintergründe. Machen Sie mit! Ihre Stimme und Perspektive werden gebraucht. Ihr Engagement ist entscheidend.
Welches sind die dringendsten Probleme, mit denen die KI bei ihrer Weiterentwicklung konfrontiert wird?
Erstens brauchen wir mehr KI-Kompetenz. Wir bei EqualAI sind „KI-nettopositiv“, das heißt, wir glauben, dass KI unserer Wirtschaft beispiellose Möglichkeiten eröffnen und unser tägliches Leben verbessern wird – aber nur, wenn diese Möglichkeiten einem größeren Querschnitt unserer Bevölkerung gleichermaßen zur Verfügung stehen und von Nutzen sind. Wir brauchen unsere aktuelle Belegschaft, die nächste Generation, unsere Großeltern – wir alle — mit dem Wissen und den Fähigkeiten ausgestattet zu sein, um von KI zu profitieren.
Zweitens müssen wir standardisierte Maßnahmen und Messgrößen zur Bewertung von KI-Systemen entwickeln. Standardisierte Bewertungen werden entscheidend sein, um Vertrauen in unsere KI-Systeme aufzubauen und es Verbrauchern, Regulierungsbehörden und nachgelagerten Anwendern zu ermöglichen, die Grenzen der KI-Systeme zu verstehen, mit denen sie arbeiten, und zu entscheiden, ob das System unser Vertrauen verdient. Wenn wir verstehen, für wen ein System konzipiert ist und welche Anwendungsfälle vorgesehen sind, können wir die Schlüsselfrage beantworten: Für wen könnte es scheitern?
Welche Probleme sollten KI-Benutzer kennen?
Künstliche Intelligenz ist genau das: künstlich. Sie wurde von Menschen entwickelt, um menschliches Denkvermögen zu „imitieren“ und Menschen in ihren Bestrebungen zu unterstützen. Wir müssen bei der Nutzung dieser Technologie ein angemessenes Maß an Skepsis bewahren und die gebotene Sorgfalt walten lassen, um sicherzustellen, dass wir unser Vertrauen in Systeme setzen, die unser Vertrauen verdienen. KI kann die Menschheit erweitern – aber nicht ersetzen.
Wir müssen uns darüber im Klaren sein, dass KI aus zwei Hauptbestandteilen besteht: Algorithmen (von Menschen erstellt) und Daten (die menschliche Gespräche und Interaktionen widerspiegeln). Infolgedessen spiegelt KI unsere menschlichen Schwächen wider und passt sich ihnen an. Voreingenommenheit und Schäden können sich im gesamten Lebenszyklus von KI einschleichen, sei es durch die von Menschen geschriebenen Algorithmen oder durch die Daten, die eine Momentaufnahme des menschlichen Lebens darstellen. Jeder menschliche Kontaktpunkt ist jedoch eine Gelegenheit, den potenziellen Schaden zu identifizieren und zu mildern.
Da man sich die Dinge nur so weit vorstellen kann, wie es die eigene Erfahrung erlaubt, und KI-Programme durch die Konstrukte, nach denen sie erstellt werden, eingeschränkt sind, ist die Wahrscheinlichkeit, dass sie in ihrer KI eingebettete Voreingenommenheit und andere Sicherheitsbedenken erkennen, umso größer, je mehr Menschen mit unterschiedlichen Perspektiven und Erfahrungen in einem Team sind.
Was ist der beste Weg, KI verantwortungsvoll aufzubauen?
Es liegt in unserer Verantwortung, eine KI zu entwickeln, die unseres Vertrauens würdig ist. Wir können nicht erwarten, dass jemand anderes das für uns tut. Wir müssen zunächst drei grundlegende Fragen stellen: (1) Für wen wird dieses KI-System entwickelt? (2) Was waren die vorgesehenen Anwendungsfälle und (3) für wen kann es scheitern? Selbst wenn wir diese Fragen im Hinterkopf behalten, wird es unvermeidlich Fallstricke geben. Um diese Risiken zu minimieren, müssen Designer, Entwickler und Bereitsteller Best Practices befolgen.
Bei EqualAI fördern wir eine gute „KI-Hygiene“, die die Planung Ihres Rahmens und die Gewährleistung der Rechenschaftspflicht sowie die Standardisierung von Tests, Dokumentation und Routineprüfungen umfasst. Außerdem haben wir kürzlich einen Leitfaden zur Gestaltung und Umsetzung eines verantwortungsvollen KI-Governance-Rahmens veröffentlicht, der die Werte, Grundsätze und Rahmenbedingungen für die verantwortungsvolle Implementierung von KI in einer Organisation darlegt. Das Dokument dient als Ressource für Organisationen jeder Größe, Branche und Reife, die KI-Systeme einführen, entwickeln, verwenden und implementieren und sich intern und öffentlich dazu verpflichten, dies verantwortungsvoll zu tun.
Wie können Investoren eine verantwortungsvollere KI besser vorantreiben?
Investoren spielen eine überragende Rolle dabei, sicherzustellen, dass unsere KI sicher, effektiv und verantwortungsvoll ist. Investoren können sicherstellen, dass die Unternehmen, die eine Finanzierung suchen, sich der potenziellen Schäden und Haftungen in ihren KI-Systemen bewusst sind und darüber nachdenken, diese zu minimieren. Schon die Frage „Wie haben Sie KI-Governance-Praktiken eingeführt?“ ist ein wichtiger erster Schritt, um bessere Ergebnisse zu erzielen.
Diese Bemühungen sind nicht nur gut für die Allgemeinheit, sondern auch im besten Interesse der Anleger, die sicherstellen wollen, dass die Unternehmen, in die sie investieren und mit denen sie verbunden sind, nicht mit schlechten Schlagzeilen in Verbindung gebracht oder durch Rechtsstreitigkeiten belastet werden. Vertrauen ist eine der wenigen nicht verhandelbaren Voraussetzungen für den Erfolg eines Unternehmens, und ein Engagement für eine verantwortungsvolle KI-Governance ist der beste Weg, das Vertrauen der Öffentlichkeit aufzubauen und aufrechtzuerhalten. Robuste und vertrauenswürdige KI ist geschäftlich sinnvoll.