Frauen in der KI: Irene Solaiman, Leiterin der globalen Politik bei Hugging Face

Frauen in der KI Irene Solaiman Leiterin der globalen Politik

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Irene Solaiman begann ihre Karriere in der KI als Forscherin und Managerin für öffentliche Ordnung bei OpenAI, wo sie einen neuen Ansatz für die Veröffentlichung von GPT-2, einem Vorgänger von ChatGPT, leitete. Nachdem sie fast ein Jahr lang als KI-Politikmanagerin bei Zillow tätig war, kam sie als Leiterin der globalen Politik zu Hugging Face. Ihre Aufgaben dort reichen vom Aufbau und der Leitung der KI-Richtlinien des Unternehmens weltweit bis hin zur Durchführung soziotechnischer Forschung.

Solaiman berät außerdem das Institute of Electrical and Electronics Engineers (IEEE), den Berufsverband für Elektrotechnik, in KI-Fragen und ist anerkannter KI-Experte bei der zwischenstaatlichen Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD).

Irene Solaiman, Leiterin der globalen Politik bei Hugging Face

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Ein durch und durch nichtlinearer Karriereweg ist in der KI an der Tagesordnung. Mein aufkeimendes Interesse begann auf die gleiche Weise, wie viele Teenager mit eingeschränkten sozialen Fähigkeiten ihre Leidenschaften finden: durch Science-Fiction-Medien. Ich habe ursprünglich Menschenrechtspolitik studiert und dann Informatikkurse belegt, da ich KI als Mittel betrachtete, an den Menschenrechten zu arbeiten und eine bessere Zukunft aufzubauen. Die Möglichkeit, technische Forschung zu betreiben und die Politik in einem Bereich mit so vielen unbeantworteten Fragen und unbeschrittenen Wegen zu leiten, macht meine Arbeit spannend.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Am stolzesten bin ich, wenn mein Fachwissen bei Menschen aus dem gesamten KI-Bereich Anklang findet, insbesondere wenn ich über Veröffentlichungsüberlegungen in der komplexen Landschaft von Veröffentlichungen und Offenheit von KI-Systemen schreibe. Ich sehe meine Arbeit auf einem Technische Bereitstellung des AI Release Gradient-Rahmens Die zeitnahen Diskussionen unter Wissenschaftlern und die Verwendung in Regierungsberichten sind bestätigend – und ein gutes Zeichen dafür, dass ich in die richtige Richtung arbeite! Persönlich beschäftigt mich die Arbeit am meisten mit der kulturellen Werteausrichtung, die darauf abzielt, sicherzustellen, dass Systeme für die Kulturen, in denen sie eingesetzt werden, am besten funktionieren. Mit meiner unglaublichen Co-Autorin und jetzt lieben Freundin Christy Dennison arbeite ich an einem Prozess zur Anpassung von Sprachmodellen an die Gesellschaft war ein Projekt mit ganzem Herzen (und vielen Debugging-Stunden), das die heutige Sicherheits- und Ausrichtungsarbeit geprägt hat.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Ich habe meine Leute gefunden und finde sie immer noch – von der Zusammenarbeit mit unglaublichen Unternehmensleitern, denen die gleichen Themen am Herzen liegen, die ich priorisiere, bis hin zu großartigen Forschungs-Co-Autoren, mit denen ich jede Arbeitssitzung mit einer Mini-Therapiesitzung beginnen kann. Affinitätsgruppen sind äußerst hilfreich beim Aufbau einer Community und dem Austausch von Tipps. Hier ist die Intersektionalität hervorzuheben. Meine Gemeinschaften aus muslimischen und BIPOC-Forschern sind immer wieder inspirierend.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Bilden Sie eine Selbsthilfegruppe, deren Erfolg Ihr Erfolg ist. In Bezug auf die Jugend glaube ich, dass dies ein „Mädchenmädchen“ ist. Die gleichen Frauen und Verbündeten, mit denen ich dieses Feld betreten habe, sind meine liebsten Kaffee-Dates und spätnächtlichen Panikanrufe vor Ablauf einer Frist. Einer der besten Karriere-Ratschläge, die ich gelesen habe, stammt von Arvind Narayan auf der Plattform, die früher als Twitter bekannt war und das „Liam-Neeson-Prinzip“ begründete, nicht der Klügste von allen zu sein, sondern über bestimmte Fähigkeiten zu verfügen.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Die drängendsten Probleme selbst entwickeln sich weiter, daher lautet die Meta-Antwort: Internationale Koordinierung für sicherere Systeme für alle Völker. Menschen, die Systeme nutzen und von ihnen betroffen sind, selbst im selben Land, haben unterschiedliche Vorlieben und Vorstellungen davon, was für sie am sichersten ist. Und die auftretenden Probleme hängen nicht nur davon ab, wie sich die KI entwickelt, sondern auch von der Umgebung, in der sie eingesetzt wird. Die Sicherheitsprioritäten und unsere Definitionen von Fähigkeiten unterscheiden sich regional, beispielsweise besteht in stärker digitalisierten Volkswirtschaften eine höhere Bedrohung durch Cyberangriffe auf kritische Infrastrukturen.

Welche Probleme sollten KI-Benutzer beachten?

Technische Lösungen gehen Risiken und Schäden selten, wenn überhaupt, ganzheitlich an. Zwar gibt es Maßnahmen, die Benutzer ergreifen können, um ihre KI-Kenntnisse zu verbessern, es ist jedoch wichtig, in eine Vielzahl von Schutzmaßnahmen für sich entwickelnde Risiken zu investieren. Ich freue mich beispielsweise über mehr Forschung zum Thema Wasserzeichen als technisches Werkzeug, und wir brauchen auch koordinierte Richtlinien der politischen Entscheidungsträger zur Verbreitung generierter Inhalte, insbesondere auf Social-Media-Plattformen.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Mit den betroffenen Menschen und einer ständigen Neubewertung unserer Methoden zur Bewertung und Umsetzung von Sicherheitstechniken. Sowohl nützliche Anwendungen als auch potenzielle Schäden entwickeln sich ständig weiter und erfordern iteratives Feedback. Die Mittel, mit denen wir die KI-Sicherheit verbessern, sollten gemeinsam als Feld untersucht werden. Die beliebtesten Bewertungen für Modelle im Jahr 2024 sind viel robuster als die, die ich im Jahr 2019 durchgeführt habe. Heute bin ich bei technischen Bewertungen viel optimistischer als bei Red-Teaming. Ich halte menschliche Bewertungen für äußerst nützlich, aber je mehr Beweise für die mentale Belastung und die unterschiedlichen Kosten menschlichen Feedbacks vorliegen, desto optimistischer bin ich hinsichtlich der Standardisierung von Bewertungen.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Das sind sie bereits! Ich freue mich, dass sich viele Investoren und Risikokapitalgesellschaften aktiv an Gesprächen über Sicherheit und Politik beteiligen, unter anderem durch offene Briefe und Aussagen vor dem Kongress. Ich bin gespannt darauf, mehr vom Fachwissen der Anleger darüber zu erfahren, was kleine Unternehmen in allen Sektoren ankurbelt, insbesondere da wir einen zunehmenden Einsatz von KI in Bereichen außerhalb der Kerntechnologiebranchen beobachten.

tch-1-tech