Frauen in der KI: Anika Collier Navaroli arbeitet daran, das Machtungleichgewicht zu verschieben

Um Akademikerinnen und anderen Frauen mit KI-Fokus die wohlverdiente – und längst überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Interviewreihe mit Schwerpunkt auf bemerkenswerten Frauen, die zur KI-Revolution beigetragen haben.

Anika Collier Navaroli ist Senior Fellow am Tow Center for Digital Journalism der Columbia University und Technology Public Voices Fellow beim OpEd Project, das in Zusammenarbeit mit der MacArthur Foundation durchgeführt wird.

Sie ist bekannt für ihre Forschungs- und Lobbyarbeit im Technologiebereich. Zuvor arbeitete sie als Fellow für Rassen- und Technologiefragen am Stanford Center on Philanthropy and Civil Society. Davor leitete sie Trust & Safety bei Twitch und Twitter. Navaroli ist vielleicht am besten für ihre Aussage vor dem Kongress über Twitter bekannt, wo sie über die ignorierten Warnungen vor drohender Gewalt in den sozialen Medien sprach, die dem Angriff auf das Kapitol am 6. Januar vorausgingen.

Wie sind Sie zur KI gekommen? Was hat Sie an diesem Bereich gereizt?

Vor etwa 20 Jahren arbeitete ich im Sommer, als die Zeitung meiner Heimatstadt auf Digital umstellte, als Redakteurin in der Redaktion. Damals studierte ich Journalismus. Soziale Medien wie Facebook überschwemmten meinen Campus und ich war besessen davon, zu verstehen, wie sich die auf der Druckerpresse basierenden Gesetze mit den neuen Technologien weiterentwickeln würden. Diese Neugier führte mich durch das Jurastudium, wo ich zu Twitter wechselte, Medienrecht und -politik studierte und die arabischen Frühlings- und Occupy-Wall-Street-Bewegungen mitverfolgte. Ich fasste all das zusammen und schrieb meine Masterarbeit darüber, wie neue Technologien den Informationsfluss und die Art und Weise, wie die Gesellschaft ihre Meinungsfreiheit ausübte, veränderten.

Nach meinem Abschluss arbeitete ich in einigen Anwaltskanzleien und fand dann meinen Weg zum Data & Society Research Institute, wo ich die Forschung des neuen Think Tanks zu dem leitete, was damals „Big Data“, Bürgerrechte und Fairness genannt wurde. Bei meiner Arbeit dort untersuchte ich, wie frühe KI-Systeme wie Gesichtserkennungssoftware, Tools für die vorausschauende Polizeiarbeit und Algorithmen zur Risikobewertung im Strafvollzug Vorurteile reproduzierten und unbeabsichtigte Folgen verursachten, die sich auf marginalisierte Gemeinschaften auswirkten. Danach arbeitete ich bei Color of Change und leitete das erste Bürgerrechtsaudit eines Technologieunternehmens, entwickelte das Playbook der Organisation für Kampagnen zur Rechenschaftspflicht im Technologiebereich und setzte mich bei Regierungen und Regulierungsbehörden für Änderungen der Technologiepolitik ein. Von dort aus wurde ich leitender politischer Beamter in den Trust & Safety-Teams von Twitter und Twitch.

Auf welche Arbeit im KI-Bereich sind Sie am meisten stolz?

Am stolzesten bin ich auf meine Arbeit in Technologieunternehmen, die mithilfe von Richtlinien das Machtgleichgewicht praktisch verschieben und Voreingenommenheit innerhalb der Kultur und wissensproduzierender algorithmischer Systeme korrigieren. Bei Twitter habe ich ein paar Kampagnen durchgeführt, um Personen zu verifizieren, die zuvor schockierenderweise vom exklusiven Verifizierungsprozess ausgeschlossen waren, darunter schwarze Frauen, People of Color und queere Menschen. Dazu gehörten auch führende KI-Wissenschaftler wie Safiya Noble, Alondra Nelson, Timnit Gebru und Meredith Broussard. Das war im Jahr 2020, als Twitter noch Twitter war. Damals bedeutete die Verifizierung, dass Ihr Name und Ihre Inhalte Teil des Kernalgorithmus von Twitter wurden, weil Tweets von verifizierten Konten in Empfehlungen, Suchergebnisse und Home-Timelines eingefügt wurden und zur Entstehung von Trends beitrugen. Die Arbeit an der Verifizierung neuer Personen mit unterschiedlichen Perspektiven auf KI hat also grundlegend dazu beigetragen, wessen Stimmen in einigen wirklich kritischen Momenten als Vordenker Autorität erhielten und neue Ideen in die öffentliche Diskussion brachten.

Ich bin auch sehr stolz auf die Forschung, die ich in Stanford durchgeführt habe und die Schwarz in Maßen. Als ich in Technologieunternehmen arbeitete, fiel mir auch auf, dass niemand wirklich über die Erfahrungen schrieb oder sprach, die ich als schwarzer Mensch jeden Tag im Bereich Vertrauen und Sicherheit machte. Als ich die Branche verließ und in die Wissenschaft zurückkehrte, beschloss ich, mit schwarzen Technikern zu sprechen und ihre Geschichten ans Licht zu bringen. Die Untersuchung war letztendlich die erste ihrer Art und hat angespornt so viele neue und wichtige Gespräche über die Erfahrungen von Tech-Mitarbeitern mit marginalisierter Identität.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und im weiteren Sinne der männerdominierten KI-Branche?

Als schwarze queere Frau war es Teil meines gesamten Lebens, mich in männerdominierten Räumen und Räumen zurechtzufinden, in denen ich als Außenseiter angesehen werde. Im Bereich Technologie und KI war der herausforderndste Aspekt meiner Meinung nach das, was ich in meiner Forschung als „erzwungene Identitätsarbeit“ bezeichne. Ich habe den Begriff geprägt, um häufige Situationen zu beschreiben, in denen Mitarbeiter mit marginalisierten Identitäten als Stimmen und/oder Vertreter ganzer Gemeinschaften behandelt werden, die ihre Identität teilen.

Da die Entwicklung neuer Technologien wie KI mit hohen Risiken verbunden ist, kann es manchmal fast unmöglich erscheinen, dieser Arbeit zu entkommen. Ich musste lernen, mir selbst sehr klare Grenzen zu setzen, mit welchen Themen ich mich wann auseinandersetzen wollte.

Welches sind die dringendsten Probleme, mit denen die KI bei ihrer Weiterentwicklung konfrontiert wird?

Entsprechend investigative Berichterstattungaktuelle generative KI-Modelle haben alle Daten im Internet verschlungen und werden bald keine Daten mehr zum Verschlingen haben. Daher greifen die größten KI-Unternehmen der Welt auf synthetische Daten zurück, also auf Informationen, die von der KI selbst und nicht von Menschen generiert werden, um ihre Systeme weiter zu trainieren.

Die Idee führte mich in ein Kaninchenloch. Also schrieb ich vor kurzem einen Kommentar Ich denke, dass die Verwendung synthetischer Daten als Trainingsdaten eines der dringendsten ethischen Probleme ist, denen sich die Entwicklung neuer KI gegenübersieht. Generative KI-Systeme haben bereits gezeigt, dass ihre Ergebnisse auf der Grundlage ihrer ursprünglichen Trainingsdaten darin bestehen, Verzerrungen zu reproduzieren und falsche Informationen zu erstellen. Der Weg, neue Systeme mit synthetischen Daten zu trainieren, würde also bedeuten, ständig verzerrte und ungenaue Ergebnisse als neue Trainingsdaten in das System einzuspeisen. Ich beschrieben Dies könnte möglicherweise zu einer Rückkopplungsschleife zur Hölle führen.

Seit ich diesen Artikel geschrieben habe, hat Mark Zuckerberg gelobt dass Metas aktualisierter Chatbot Llama 3 teilweise angetrieben durch synthetische Daten und war das „intelligenteste“ generative KI-Produkt auf dem Markt.

Welche Probleme sollten KI-Benutzer kennen?

KI ist ein allgegenwärtiger Teil unseres heutigen Lebens, von der Rechtschreibprüfung über Social-Media-Feeds bis hin zu Chatbots und Bildgeneratoren. In vielerlei Hinsicht ist die Gesellschaft zum Versuchskaninchen für die Experimente dieser neuen, ungetesteten Technologie geworden. Doch KI-Nutzer sollten sich nicht machtlos fühlen.

Ich war streitend dass sich Technologiebefürworter zusammentun und KI-Nutzer organisieren sollten, um eine „People Pause on AI“ zu fordern. Ich denke, dass die Writers Guild of America gezeigt hat, dass Menschen mit Organisation, kollektivem Handeln und geduldiger Entschlossenheit zusammenkommen können, um sinnvolle Grenzen für den Einsatz von KI-Technologien zu schaffen. Ich glaube auch, dass KI nicht zu einer Bedrohung werden muss, wenn wir jetzt innehalten, um die Fehler der Vergangenheit zu beheben und neue ethische Richtlinien und Vorschriften zu schaffen. Existenzielle Bedrohung für unsere Zukunft.

Wie lässt sich KI am besten verantwortungsvoll entwickeln??

Meine Erfahrungen in Technologieunternehmen haben mir gezeigt, wie wichtig es ist, wer im Raum sitzt, Richtlinien schreibt, Argumente vorträgt und Entscheidungen trifft. Mein Werdegang hat mir auch gezeigt, dass ich durch mein Studium an der Journalistenschule die Fähigkeiten entwickelt habe, die ich für den Erfolg in der Technologiebranche brauche. Jetzt arbeite ich wieder an der Columbia Journalism School und bin daran interessiert, die nächste Generation von Menschen auszubilden, die die Arbeit der Technologieverantwortung übernehmen und KI sowohl innerhalb von Technologieunternehmen als auch als externe Kontrollorgane verantwortungsvoll entwickeln werden.

Ich finde [journalism] Die Schule vermittelt den Menschen eine einzigartige Ausbildung darin, Informationen zu hinterfragen, nach der Wahrheit zu suchen, verschiedene Standpunkte zu berücksichtigen, logische Argumente zu entwickeln und Fakten und Realität von Meinungen und Fehlinformationen zu unterscheiden. Ich glaube, das ist eine solide Grundlage für die Menschen, die dafür verantwortlich sein werden, die Regeln dafür zu schreiben, was die nächsten Iterationen der KI können und was nicht. Und ich freue mich darauf, einen geebneteren Weg für diejenigen zu schaffen, die nach mir kommen.

Ich glaube auch, dass die KI-Industrie neben qualifizierten Trust & Safety-Mitarbeitern externe Regulierung braucht. In den USA argumentieren dass dies in Form einer neuen Agentur zur Regulierung amerikanischer Technologieunternehmen geschehen sollte, die die Befugnis hat, grundlegende Sicherheits- und Datenschutzstandards festzulegen und durchzusetzen. Ich möchte auch weiterhin daran arbeiten, aktuelle und zukünftige Regulierungsbehörden mit ehemaligen Technologiemitarbeitern zusammenzubringen, die den Verantwortlichen helfen können, die richtigen Fragen zu stellen und neue differenzierte und praktische Lösungen zu entwickeln.

tch-1-tech