Um Akademikerinnen und anderen Frauen mit Schwerpunkt KI ihre wohlverdiente – und längst überfällige – Zeit im Rampenlicht zu geben, hat Tech eine Reihe von Interviews veröffentlicht, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Wir veröffentlichen diese Beiträge das ganze Jahr über, während der KI-Boom anhält, und heben wichtige Arbeiten hervor, die oft unerkannt bleiben. Weitere Profile finden Sie hier.
Sarah Myers West ist Geschäftsführerin des AI Now Institute, einem amerikanischen Forschungsinstitut, das die sozialen Auswirkungen von KI untersucht und politische Forschung betreibt, die sich mit der Machtkonzentration in der Technologiebranche beschäftigt. Zuvor war sie als leitende Beraterin für KI bei der US-amerikanischen Federal Trade Commission tätig und ist Gastwissenschaftlerin an der Northeastern University sowie wissenschaftliche Mitarbeiterin am Citizens and Technology Lab der Cornell University.
Wie sind Sie zur KI gekommen? Was hat Sie an diesem Bereich gereizt?
Ich habe die letzten 15 Jahre damit verbracht, die Rolle von Technologieunternehmen als mächtige politische Akteure zu untersuchen, als sie an die Front der internationalen Regierungsführung traten. Zu Beginn meiner Karriere konnte ich aus erster Hand beobachten, wie US-Technologieunternehmen auf der ganzen Welt auf eine Weise auftauchten, die die politische Landschaft veränderte – in Südostasien, China, dem Nahen Osten und anderswo – und schrieb ein Buch, in dem ich mich damit befasste, wie Lobbyarbeit und Regulierung der Industrie die Ursprünge des Überwachungsgeschäftsmodells für das Internet prägten, trotz Technologien, die Alternativen boten. In Theorie Das In üben blieb aus.
Ich habe mich im Laufe meiner Karriere oft gefragt: „Warum versteifen wir uns auf diese dystopische Zukunftsvision?“ Die Antwort hat weniger mit der Technologie selbst zu tun, sondern vielmehr mit Politik und Kommerzialisierung.
Das ist seitdem im Wesentlichen mein Projekt, sowohl in meiner Forschungskarriere als auch jetzt in meiner politischen Arbeit als Co-Direktor von AI Now. Wenn KI Teil der Infrastruktur unseres täglichen Lebens ist, müssen wir die Institutionen, die sie produzieren, kritisch prüfen und sicherstellen, dass als Gesellschaft genügend Reibung besteht – sei es durch Regulierung oder Organisation –, um sicherzustellen, dass am Ende des Tages die Bedürfnisse der Öffentlichkeit erfüllt werden und nicht die der Technologieunternehmen.
Auf welche Arbeit im KI-Bereich sind Sie am meisten stolz?
Ich bin wirklich stolz auf die Arbeit, die wir bei der FTC geleistet haben, der US-Behörde, die unter anderem an vorderster Front der Regulierungsdurchsetzung im Bereich künstliche Intelligenz steht. Ich habe es geliebt, die Ärmel hochzukrempeln und an Fällen zu arbeiten. Ich konnte meine methodische Ausbildung als Forscherin für die Ermittlungsarbeit nutzen, da die Toolkits im Wesentlichen dieselben sind. Es war erfreulich, diese Tools nutzen zu können, um die Macht direkt zur Rechenschaft zu ziehen, und zu sehen, wie diese Arbeit unmittelbare Auswirkungen auf die Öffentlichkeit hat, sei es bei der Auseinandersetzung damit, wie KI eingesetzt wird, um Arbeitnehmer abzuwerten und Preise in die Höhe zu treiben, oder bei der Bekämpfung des wettbewerbsschädigenden Verhaltens großer Technologieunternehmen.
Es ist uns gelungen, ein fantastisches Team aus Technologen an Bord zu holen, die dem Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses unterstehen. Es war spannend zu sehen, wie die Grundlagen, die wir dort gelegt haben, angesichts der Entstehung der generativen KI und der Bedeutung der Cloud-Infrastruktur unmittelbare Relevanz haben.
Welches sind die dringendsten Probleme, mit denen die KI bei ihrer Weiterentwicklung konfrontiert wird?
Zunächst einmal ist es so, dass KI-Technologien in hochsensiblen Kontexten – in Krankenhäusern, Schulen, an Grenzen usw. – weit verbreitet sind, aber noch nicht ausreichend getestet und validiert sind. Diese Technologie ist fehleranfällig und wir wissen aus unabhängiger Forschung, dass diese Fehler nicht gleichmäßig verteilt sind; sie schädigen überproportional Gemeinschaften, die seit langem die Hauptlast von Diskriminierung tragen. Wir sollten die Messlatte viel, viel höher legen. Aber was mich beunruhigt, ist, wie mächtige Institutionen KI – ob sie nun funktioniert oder nicht – nutzen, um ihre Handlungen zu rechtfertigen, vom Einsatz von Waffen gegen Zivilisten in Gaza bis zur Entrechtung von Arbeitnehmern. Dies ist kein Problem der Technologie, sondern des Diskurses: wie wir unsere Kultur an Technologie ausrichten und an der Idee, dass bestimmte Entscheidungen oder Verhaltensweisen durch KI „objektiver“ werden oder irgendwie durchgehen.
Was ist der beste Weg, KI verantwortungsvoll aufzubauen?
Wir müssen immer mit der Frage beginnen: Warum überhaupt KI entwickeln? Was macht den Einsatz künstlicher Intelligenz erforderlich und ist die KI-Technologie für diesen Zweck geeignet? Manchmal besteht die Antwort darin, besserund in diesem Fall sollten die Entwickler die Einhaltung der Gesetze sicherstellen, ihre Systeme gründlich dokumentieren und validieren und so viel wie möglich offen und transparent machen, damit unabhängige Forscher das Gleiche tun können. Aber manchmal lautet die Antwort, überhaupt nichts zu bauen: Wir brauchen nicht mehr „verantwortungsvoll gebaute“ Waffen oder Überwachungstechnologie. Der Endnutzer ist für diese Frage wichtig, und dort müssen wir ansetzen.