Frauen in der KI: Sarah Kreps, Professorin für Regierung an der Cornell

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Sarah Kreps ist Politikwissenschaftlerin, Veteranin der US-Luftwaffe und Analystin mit Schwerpunkt auf US-Außen- und Verteidigungspolitik. Sie ist Professorin für Regierung an der Cornell University, außerordentliche Professorin für Rechtswissenschaften an der Cornell Law School und außerordentliche Wissenschaftlerin am Modern War Institute in West Point.

Kreps‘ aktuelle Forschung untersucht sowohl das Potenzial als auch die Risiken von KI-Technologien wie GPT-4 von OpenAI, insbesondere im politischen Bereich. In einer Stellungnahme Spalte Für The Guardian schrieb sie letztes Jahr, dass sich das KI-Wettrüsten nicht nur zwischen Unternehmen, sondern auch in den Ländern intensivieren wird, je mehr Geld in die KI fließt – während die Herausforderung der KI-Politik schwieriger wird.

Fragen und Antworten

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Ich begann im Bereich neuer Technologien mit Auswirkungen auf die nationale Sicherheit. Als die Predator-Drohne eingesetzt wurde, war ich Offizier der Luftwaffe und an fortschrittlichen Radar- und Satellitensystemen beteiligt. Da ich vier Jahre lang in diesem Bereich gearbeitet hatte, war es für mich selbstverständlich, dass ich mich als Doktorand für die Erforschung der Auswirkungen neuer Technologien auf die nationale Sicherheit interessieren würde. Ich habe zuerst über Drohnen geschrieben, und die Debatte über Drohnen verlagerte sich auf Fragen der Autonomie, was natürlich künstliche Intelligenz impliziert.

Im Jahr 2018 nahm ich an einem Workshop zu künstlicher Intelligenz in einer Denkfabrik in Washington D.C. teil und OpenAI hielt einen Vortrag über diese neue GPT-2-Funktion, die sie entwickelt hatten. Wir hatten gerade die Wahlen 2016 und ausländische Wahleinmischungen durchgemacht, die aufgrund kleiner Dinge wie Grammatikfehler von Nicht-Muttersprachlern relativ leicht zu erkennen waren – die Art von Fehlern, die angesichts der Tatsache, dass die Einmischung aus dem Ausland kam, nicht überraschend waren Von Russland unterstützte Internet-Forschungsagentur. Als OpenAI diesen Vortrag hielt, beschäftigte ich mich sofort mit der Möglichkeit, glaubwürdige Desinformation in großem Maßstab zu erzeugen und dann durch Mikrotargeting die Psychologie amerikanischer Wähler auf weitaus effektivere Weise zu manipulieren, als dies möglich gewesen wäre, als diese Personen versuchten, Inhalte von Hand zu schreiben , wo die Größe immer ein Problem sein würde.

Ich wandte mich an OpenAI und wurde einer der ersten akademischen Mitarbeiter bei deren Strategie zur schrittweisen Veröffentlichung. Meine spezielle Forschung zielte darauf ab, den möglichen Missbrauchsfall zu untersuchen – ob GPT-2 und später GPT-3 als Generatoren politischer Inhalte glaubwürdig waren. In einer Reihe von Experimenten habe ich ausgewertet, ob die Öffentlichkeit diesen Inhalt als glaubwürdig ansehen würde, habe dann aber auch ein großes Feldexperiment durchgeführt, bei dem ich „Wahlkreisbriefe“ erstellt habe, die ich zufällig mit Briefen tatsächlicher Wahlkreise kombiniert habe, um zu sehen, ob die Gesetzgeber genauso schnell darauf reagieren würden wissen, ob sie sich täuschen lassen – ob böswillige Akteure die Gesetzgebungsagenda mit einer groß angelegten Briefkampagne beeinflussen könnten.

Diese Fragen trafen den Kern dessen, was es bedeutet, eine souveräne Demokratie zu sein, und ich kam zu dem eindeutigen Schluss, dass diese neuen Technologien tatsächlich neue Bedrohungen für unsere Demokratie darstellen.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Ich bin sehr stolz auf das Feldexperiment, das ich durchgeführt habe. Niemand hatte etwas auch nur annähernd Ähnliches getan, und wir waren die Ersten, die das disruptive Potenzial im Kontext einer Gesetzgebungsagenda aufgezeigt haben.

Aber ich bin auch stolz auf Werkzeuge, die ich leider nie auf den Markt gebracht habe. Ich habe mit mehreren Informatikstudenten an der Cornell University zusammengearbeitet, um eine Anwendung zu entwickeln, die eingehende E-Mails von Gesetzgebungsorganen verarbeiten und ihnen dabei helfen würde, auf sinnvolle Weise auf Wähleranfragen zu reagieren. Wir haben vor ChatGPT daran gearbeitet und KI verwendet, um die große Menge an E-Mails zu verarbeiten und eine KI-Unterstützung für Mitarbeiter bereitzustellen, die unter Zeitdruck stehen und mit Menschen in ihrem Bezirk oder Bundesstaat kommunizieren. Ich hielt diese Instrumente für wichtig, da die Wähler von der Politik abgeneigt sind, aber auch die Anforderungen an die Zeit der Gesetzgeber steigen. Die Entwicklung von KI auf diese öffentlich interessierte Weise schien für Politikwissenschaftler und Informatiker ein wertvoller Beitrag und eine interessante interdisziplinäre Arbeit zu sein. Wir haben eine Reihe von Experimenten durchgeführt, um die Verhaltensfragen zu untersuchen, wie Menschen sich fühlen würden, wenn ein KI-Assistent auf sie reagieren würde, und kamen zu dem Schluss, dass die Gesellschaft möglicherweise nicht auf so etwas vorbereitet war. Doch dann, ein paar Monate nachdem wir den Stecker gezogen hatten, kam ChatGPT auf den Plan und KI ist so allgegenwärtig, dass ich mich fast frage, wie wir uns jemals Gedanken darüber gemacht haben, ob dies ethisch zweifelhaft oder legitim ist. Aber ich halte es immer noch für richtig, dass wir die harten ethischen Fragen zum legitimen Anwendungsfall gestellt haben.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Als Forscher habe ich diese Herausforderungen nicht besonders stark gespürt. Ich war gerade in der Bay Area und dort gaben alle Typen im Hotelaufzug buchstäblich ihre Elevator Pitches ab, ein Klischee, das meiner Meinung nach einschüchternd wirkte. Ich würde ihnen empfehlen, Mentoren (männlich und weiblich) zu finden, Fähigkeiten zu entwickeln und diese Fähigkeiten für sich sprechen zu lassen, Herausforderungen anzunehmen und belastbar zu bleiben.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Ich denke, es gibt viele Möglichkeiten für Frauen – sie müssen Fähigkeiten entwickeln und Selbstvertrauen haben, dann werden sie erfolgreich sein.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Ich mache mir Sorgen, dass die KI-Community so viele Forschungsinitiativen entwickelt hat, die sich auf Dinge wie „Superalignment“ konzentrieren, die die tieferen – oder eigentlich richtigen – Fragen darüber verschleiern, an wessen Werten oder mit welchen Werten wir KI auszurichten versuchen. Der problematische Rollout von Google Gemini zeigte die Karikatur, die entstehen kann, wenn man sich auf eine Art und Weise an einer engen Reihe von Entwicklerwerten orientiert, die tatsächlich zu (fast) lächerlichen historischen Ungenauigkeiten in ihren Ergebnissen führte. Ich denke, dass die Werte dieser Entwickler gutgläubig waren, aber die Tatsache offenbarten, dass diese großen Sprachmodelle mit einer bestimmten Reihe von Werten programmiert werden, die die Art und Weise prägen werden, wie Menschen über Politik, soziale Beziehungen und eine Vielzahl sensibler Themen denken. Diese Probleme stellen kein existenzielles Risiko dar, schaffen aber das Gefüge der Gesellschaft und verleihen den großen Firmen (z. B. OpenAI, Google, Meta usw.), die für diese Modelle verantwortlich sind, beträchtliche Macht.

Welche Probleme sollten KI-Benutzer beachten?

Da KI allgegenwärtig wird, sind wir meiner Meinung nach in eine „Vertrauen, aber überprüfen“-Welt eingetreten. Es ist nihilistisch, nichts zu glauben, aber es gibt viele KI-generierte Inhalte und Benutzer müssen wirklich vorsichtig sein, was sie instinktiv vertrauen. Es ist gut, nach alternativen Quellen zu suchen, um die Echtheit zu überprüfen, bevor man einfach davon ausgeht, dass alles korrekt ist. Aber ich denke, das haben wir bereits durch soziale Medien und Fehlinformationen gelernt.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Ich habe kürzlich einen geschrieben Stück für das Bulletin of the Atomic Scientists, das ursprünglich über Atomwaffen berichtete, sich aber an disruptive Technologien wie KI angepasst hat. Ich hatte darüber nachgedacht, wie Wissenschaftler bessere öffentliche Verwalter sein könnten, und wollte einige der historischen Fälle, die ich mir angesehen hatte, für ein Buchprojekt miteinander verbinden. Ich skizziere nicht nur eine Reihe von Schritten, die ich für eine verantwortungsvolle Entwicklung befürworten würde, sondern spreche auch darüber, warum einige der Fragen, die KI-Entwickler stellen, falsch, unvollständig oder fehlgeleitet sind.

tch-1-tech