Frauen in der KI: Rashida Richardson, Senior Counsel bei Mastercard mit Schwerpunkt auf KI und Datenschutz

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Rashida Richardson ist Senior Counsel bei Mastercard, wo ihr Zuständigkeitsbereich neben KI auch auf rechtliche Fragen im Zusammenhang mit Privatsphäre und Datenschutz liegt.

Richardson war früher Direktor für Politikforschung am AI Now Institute, dem Forschungsinstitut, das die sozialen Auswirkungen von KI untersucht, und leitender politischer Berater für Daten und Demokratie am Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses. Er war Assistenzprofessor für Rechtswissenschaften und Politikwissenschaft an der Northeastern University seit 2021. Dort ist sie auf Rasse und neue Technologien spezialisiert.

Rashida Richardson, Senior Counsel, AI bei Mastercard

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Mein Hintergrund ist ein Anwalt für Bürgerrechte, wo ich an einer Reihe von Themen gearbeitet habe, darunter Datenschutz, Überwachung, Aufhebung der Rassentrennung an Schulen, gerechtes Wohnen und Reform der Strafjustiz. Während ich an diesen Themen arbeitete, war ich Zeuge der frühen Phasen der Einführung und des Experimentierens mit KI-basierten Technologien durch die Regierung. In einigen Fällen waren die Risiken und Bedenken offensichtlich, und ich half dabei, eine Reihe technologiepolitischer Bemühungen im Bundesstaat und in der Stadt New York zu leiten, um eine bessere Aufsicht, Bewertung oder andere Schutzmaßnahmen zu schaffen. In anderen Fällen war ich von Natur aus skeptisch gegenüber den Vorteilen oder Wirksamkeitsansprüchen von KI-bezogenen Lösungen, insbesondere solchen, die vermarktet werden, um strukturelle Probleme wie die Aufhebung der Rassentrennung in Schulen oder gerechtes Wohnen zu lösen oder abzumildern.

Aufgrund meiner bisherigen Erfahrungen war ich mir auch der bestehenden politischen und regulatorischen Lücken sehr bewusst. Mir fiel schnell auf, dass es im KI-Bereich nur wenige Leute gab, die über meinen Hintergrund und meine Erfahrung verfügten oder die Analysen und möglichen Interventionen anboten, die ich in meiner politischen Interessenvertretung und akademischen Arbeit entwickelte. Mir wurde also klar, dass dies ein Bereich und Raum war, in dem ich sinnvolle Beiträge leisten und auf einzigartige Weise auf meinen bisherigen Erfahrungen aufbauen konnte.

Ich beschloss, sowohl meine juristische Praxis als auch meine akademische Arbeit auf KI zu konzentrieren, insbesondere auf politische und rechtliche Fragen im Zusammenhang mit ihrer Entwicklung und Nutzung.

Auf welche Arbeit im KI-Bereich sind Sie am meisten stolz?

Ich freue mich, dass das Thema endlich mehr Aufmerksamkeit bei allen Beteiligten, insbesondere aber bei den politischen Entscheidungsträgern, erhält. In den Vereinigten Staaten gibt es eine lange Geschichte, in der die Gesetzgebung hinterherhinkt oder technologiepolitische Fragen nie angemessen angeht, und vor fünf bis sechs Jahren hatte man das Gefühl, dass dies das Schicksal der KI sein könnte, denn ich erinnere mich an die Auseinandersetzung mit politischen Entscheidungsträgern in beiden Bereichen Bei formellen Anlässen wie Anhörungen im US-Senat oder Bildungsforen betrachteten die meisten politischen Entscheidungsträger das Thema als geheimnisvoll oder als etwas, das trotz der raschen Einführung von KI in allen Sektoren keiner Dringlichkeit bedurfte. Doch im letzten Jahr oder so hat es einen erheblichen Wandel gegeben, sodass KI ein fester Bestandteil des öffentlichen Diskurses ist und die politischen Entscheidungsträger die Risiken und den Bedarf an fundiertem Handeln besser einschätzen können. Ich denke auch, dass Interessenvertreter in allen Sektoren, einschließlich der Industrie, erkennen, dass KI einzigartige Vorteile und Risiken mit sich bringt, die mit herkömmlichen Methoden möglicherweise nicht gelöst werden können, sodass es mehr Anerkennung – oder zumindest Wertschätzung – für politische Interventionen gibt.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Als schwarze Frau bin ich es gewohnt, in vielen Bereichen eine Minderheit zu sein, und obwohl die KI- und Technologiebranche äußerst homogene Bereiche sind, sind sie weder neu noch unterscheiden sie sich sonderlich von anderen Bereichen mit immenser Macht und Reichtum, wie dem Finanzwesen und anderen Bereichen Anwaltschaft. Daher denke ich, dass meine bisherige Arbeit und meine Lebenserfahrung mir geholfen haben, mich auf diese Branche vorzubereiten, da ich mir der Vorurteile, die ich möglicherweise überwinden muss, und der herausfordernden Dynamik, auf die ich wahrscheinlich stoßen werde, sehr bewusst bin. Bei der Orientierung verlasse ich mich auf meine Erfahrung, denn ich verfüge über einen einzigartigen Hintergrund und eine einzigartige Perspektive, da ich in allen Branchen – Wissenschaft, Industrie, Regierung und Zivilgesellschaft – an KI gearbeitet habe.

Welche Probleme sollten KI-Benutzer beachten?

Zwei wichtige Probleme, die KI-Benutzer beachten sollten, sind: (1) ein besseres Verständnis der Fähigkeiten und Einschränkungen verschiedener KI-Anwendungen und -Modelle und (2) die große Unsicherheit hinsichtlich der Fähigkeit aktueller und künftiger Gesetze, Konflikte oder bestimmte Probleme zu lösen zum Thema KI-Nutzung.

Zum ersten Punkt besteht ein Ungleichgewicht im öffentlichen Diskurs und Verständnis hinsichtlich der Vorteile und des Potenzials von KI-Anwendungen sowie ihrer tatsächlichen Fähigkeiten und Grenzen. Dieses Problem wird durch die Tatsache verschärft, dass KI-Benutzer den Unterschied zwischen KI-Anwendungen und -Modellen möglicherweise nicht erkennen. Das öffentliche Bewusstsein für KI wuchs mit der Veröffentlichung von ChatGPT und anderen kommerziell erhältlichen generativen KI-Systemen, aber diese KI-Modelle unterscheiden sich von anderen Arten von KI-Modellen, mit denen sich Verbraucher seit Jahren beschäftigen, wie etwa Empfehlungssystemen. Wenn die Diskussion über KI verworren ist und die Technologie als monolithisch behandelt wird, verzerrt dies tendenziell das öffentliche Verständnis darüber, was jede Art von Anwendung oder Modell tatsächlich leisten kann und welche Risiken mit ihren Einschränkungen oder Mängeln verbunden sind.

Was den zweiten Punkt betrifft, so entwickeln sich Gesetze und Richtlinien in Bezug auf die Entwicklung und Nutzung von KI weiter. Zwar gibt es eine Vielzahl von Gesetzen (z. B. Bürgerrechte, Verbraucherschutz, Wettbewerb, faire Kreditvergabe), die bereits für den Einsatz von KI gelten, wir befinden uns jedoch noch in einem frühen Stadium der Prüfung, wie diese Gesetze durchgesetzt und interpretiert werden. Wir befinden uns auch in der Anfangsphase der Richtlinienentwicklung, die speziell auf KI zugeschnitten ist – aber was mir sowohl in der Rechtspraxis als auch in meiner Forschung aufgefallen ist, ist, dass es Bereiche gibt, die durch diesen rechtlichen Flickenteppich ungelöst bleiben und erst gelöst werden, wenn es mehr gibt Rechtsstreitigkeiten im Zusammenhang mit der Entwicklung und Nutzung von KI. Generell glaube ich nicht, dass ein großes Verständnis für den aktuellen Stand der Gesetzgebung und der KI besteht und dass Rechtsunsicherheit in Bezug auf Schlüsselthemen wie Haftung dazu führen kann, dass bestimmte Risiken, Schäden und Streitigkeiten bis zu jahrelangen Rechtsstreitigkeiten zwischen Unternehmen oder Regulierungsbehörden ungeklärt bleiben und Unternehmen legen rechtliche Präzedenzfälle vor, die für Klarheit sorgen können.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Die Herausforderung beim verantwortungsvollen Aufbau von KI besteht darin, dass viele der Grundpfeiler verantwortungsvoller KI, wie Fairness und Sicherheit, auf normativen Werten basieren – für die es keine gemeinsamen Definitionen oder kein gemeinsames Verständnis dieser Konzepte gibt. Man könnte also vermutlich verantwortungsbewusst handeln und dennoch Schaden anrichten, oder man könnte böswillig handeln und sich darauf verlassen, dass es keine gemeinsamen Normen dieser Konzepte gibt, um gutgläubiges Handeln zu beanspruchen. Bis es globale Standards oder einen gemeinsamen Rahmen für den verantwortungsvollen Aufbau von KI gibt, kann man dieses Ziel am besten verfolgen, indem man klare Grundsätze, Richtlinien, Leitlinien und Standards für die verantwortungsvolle KI-Entwicklung und -Nutzung hat, die durch interne Aufsicht durchgesetzt werden. Benchmarking und andere Governance-Praktiken.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Investoren können besser definieren oder zumindest klären, was eine verantwortungsvolle KI-Entwicklung oder -Nutzung ausmacht, und Maßnahmen ergreifen, wenn die Praktiken der KI-Akteure nicht übereinstimmen. Derzeit sind „verantwortungsvolle“ oder „vertrauenswürdige“ KI praktisch Marketingbegriffe, da es keine klaren Standards zur Bewertung der Praktiken von KI-Akteuren gibt. Während einige neu entstehende Vorschriften wie das EU-KI-Gesetz einige Governance- und Aufsichtsanforderungen festlegen werden, gibt es immer noch Bereiche, in denen KI-Akteure von Investoren dazu angeregt werden können, bessere Praktiken zu entwickeln, die menschliche Werte oder das Wohl der Gesellschaft in den Mittelpunkt stellen. Wenn Anleger jedoch nicht bereit sind, zu handeln, wenn Fehlausrichtungen oder Hinweise auf schlechte Akteure vorliegen, besteht kaum ein Anreiz, Verhalten oder Praktiken anzupassen.

tch-1-tech