Die gemeinnützige Organisation von Mutale Nkonde arbeitet daran, KI weniger voreingenommen zu machen

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Mutale Nkonde ist Gründungs-CEO der gemeinnützigen Organisation AI For the People (AFP), die sich zum Ziel gesetzt hat, die Zahl der schwarzen Stimmen in der Technologiebranche zu erhöhen. Zuvor half sie bei der Einführung der Algorithmic Acts und Deep Fakes Algorithmic Acts sowie des No Biometric Barriers to Housing Act im US-Repräsentantenhaus. Derzeit ist sie Visiting Policy Fellow am Oxford Internet Institute.

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Ich wurde neugierig, wie soziale Medien funktionieren, nachdem ein Freund von mir gepostet hatte, dass Google Pictures, der Vorläufer von Google Image, im Jahr 2015 zwei Schwarze als Gorillas bezeichnete. Ich war in vielen „Schwarzen in der Technik“-Kreisen tätig und Wir waren empört, aber ich habe erst mit der Veröffentlichung von Weapons of Math Destruction im Jahr 2016 ansatzweise verstanden, dass dies auf algorithmische Voreingenommenheit zurückzuführen ist Autor eines Berichts namens o Förderung der Rassenkompetenz in der Technik, das 2019 veröffentlicht wurde. Dies wurde von Leuten bei der McArthur Foundation bemerkt und war der Startschuss für die aktuelle Phase meiner Karriere.

Ich fühlte mich von Fragen zu Rassismus und Technologie angezogen, weil sie unzureichend erforscht und nicht intuitiv zu sein schienen. Ich mag es, Dinge zu tun, die andere Leute nicht tun, daher schien es mir eine Menge Spaß zu machen, mehr zu lernen und diese Informationen im Silicon Valley zu verbreiten. Seit der Förderung der Rassenkompetenz in der Technik. Ich habe eine gemeinnützige Organisation namens AI for the People gegründet, die sich darauf konzentriert, sich für Richtlinien und Praktiken einzusetzen, um die Ausprägung algorithmischer Voreingenommenheit zu reduzieren.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Ich bin wirklich stolz darauf, der führende Befürworter des Algorithmic Accountability Act zu sein, der erstmals 2019 im Repräsentantenhaus eingeführt wurde. Er etablierte AI for the People als wichtigen Vordenker bei der Entwicklung von Protokollen zur Steuerung von Design, Bereitstellung, und Governance von KI-Systemen, die den lokalen Antidiskriminierungsgesetzen entsprechen. Dies hat dazu geführt, dass wir als Teil einer Beratergruppe für verschiedene Bundesbehörden in die Schumer AI Insights Channels aufgenommen wurden und einige spannende bevorstehende Arbeiten auf dem Hill durchführen.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Ich hatte tatsächlich mehr Probleme mit akademischen Gatekeepern. Die meisten Männer, mit denen ich in Technologieunternehmen zusammenarbeite, wurden damit beauftragt, Systeme für den Einsatz bei Schwarzen und anderen nichtweißen Bevölkerungsgruppen zu entwickeln, und daher war die Zusammenarbeit mit ihnen sehr einfach. Vor allem, weil ich als externer Experte agiere, der bestehende Praktiken entweder bestätigen oder in Frage stellen kann.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Finden Sie eine Nische und werden Sie darin einer der besten Menschen der Welt. Zwei Dinge haben mir dabei geholfen, Glaubwürdigkeit aufzubauen: Erstens habe ich mich für Richtlinien zur Reduzierung algorithmischer Voreingenommenheit eingesetzt, während Menschen in der Wissenschaft begonnen haben, das Thema zu diskutieren. Dies verschaffte mir einen First-Mover-Vorteil im „Lösungsbereich“ und machte AI for the People fünf Jahre vor der Executive Order zu einer Autorität auf dem Hill. Das zweite, was ich sagen würde, ist, sich Ihre Mängel anzusehen und sie anzugehen. AI for the People ist vier Jahre alt und ich habe mir die akademischen Qualifikationen angeeignet, die ich brauche, um sicherzustellen, dass ich nicht aus den Vordenkerbereichen verdrängt werde. Ich kann es kaum erwarten, im Mai meinen Master-Abschluss an der Columbia University zu machen, und hoffe, dass ich in diesem Bereich weiter forschen kann.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Ich denke intensiv über die Strategien nach, die verfolgt werden können, um mehr Schwarze und Farbige in die Erstellung, Erprobung und Kommentierung grundlegender Modelle einzubeziehen. Das liegt daran, dass die Technologien nur so gut sind wie ihre Trainingsdaten. Wie können wir also inklusive Datensätze erstellen, wenn DEI angegriffen wird, schwarze Risikokapitalfonds verklagt werden, weil sie auf schwarze und weibliche Gründer abzielen, und schwarze Akademiker öffentlich angegriffen werden? , wer wird diese Arbeit in der Branche erledigen?

Welche Probleme sollten KI-Benutzer beachten?

Ich denke, wir sollten über die KI-Entwicklung als ein geopolitisches Thema nachdenken und darüber nachdenken, wie die Vereinigten Staaten eine führende Rolle bei wirklich skalierbarer KI übernehmen könnten, indem sie Produkte entwickeln, die bei Menschen jeder Bevölkerungsgruppe eine hohe Wirksamkeit aufweisen. Dies liegt daran, dass China der einzige andere große KI-Produzent ist, die Produkte jedoch innerhalb einer weitgehend homogenen Bevölkerung produzieren, und das, obwohl sie in Afrika eine große Präsenz haben. Der amerikanische Technologiesektor kann diesen Markt dominieren, wenn aggressive Investitionen in die Entwicklung von Anti-Bias-Technologien getätigt werden.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Es muss einen mehrgleisigen Ansatz geben, aber eine Sache, die es zu berücksichtigen gilt, wäre die Verfolgung von Forschungsfragen, die sich auf Menschen konzentrieren, die am Rande des Randes leben. Der einfachste Weg, dies zu tun, besteht darin, kulturelle Trends zu notieren und dann zu überlegen, wie sich diese auf die technologische Entwicklung auswirken. Stellen Sie beispielsweise Fragen wie: Wie entwickeln wir skalierbare biometrische Technologien in einer Gesellschaft, in der sich mehr Menschen als trans- oder nicht-binär identifizieren?

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Anleger sollten sich die demografischen Trends ansehen und sich dann fragen, ob diese Unternehmen in der Lage sein werden, ihre Produkte an eine Bevölkerung zu verkaufen, die aufgrund sinkender Geburtenraten in der europäischen Bevölkerung auf der ganzen Welt zunehmend schwarz und braun wird? Dies sollte sie dazu veranlassen, während des Due-Diligence-Prozesses Fragen zur algorithmischen Verzerrung zu stellen, da dies zunehmend zu einem Problem für Verbraucher werden wird.

Es gibt noch viel zu tun, um unsere Arbeitskräfte für eine Zeit umzuschulen, in der KI-Systeme arbeitssparende Aufgaben mit geringem Aufwand erledigen. Wie können wir sicherstellen, dass Menschen, die am Rande unserer Gesellschaft leben, in diese Programme einbezogen werden? Welche Informationen können sie uns darüber geben, wie KI-Systeme funktionieren und wie nicht, und wie können wir diese Erkenntnisse nutzen, um sicherzustellen, dass KI wirklich für die Menschen da ist?

tch-1-tech