Frauen in der KI: Heidy Khlaaf, Direktorin für Sicherheitstechnik bei Trail of Bits

Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.

Heidy Khlaaf ist technische Direktorin beim Cybersicherheitsunternehmen Trail of Bits. Sie ist auf die Bewertung von Software- und KI-Implementierungen in „sicherheitskritischen“ Systemen wie Kernkraftwerken und autonomen Fahrzeugen spezialisiert.

Khlaaf erhielt ihren Doktortitel in Informatik. Sie hat einen BA vom University College London und einen Bachelor-Abschluss in Informatik und Philosophie von der Florida State University. Sie hat Sicherheitsaudits geleitet, Beratungen und Überprüfungen von Assurance-Fällen durchgeführt und zur Erstellung von Standards und Richtlinien für sicherheitsrelevante Anwendungen und deren Entwicklung beigetragen.

Fragen und Antworten

Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?

Ich fühlte mich schon in jungen Jahren zur Robotik hingezogen und begann im Alter von 15 Jahren mit dem Programmieren, da ich von den Aussichten fasziniert war, Robotik und KI (da sie auf unerklärliche Weise miteinander verbunden sind) zur Automatisierung von Arbeitslasten dort zu nutzen, wo sie am meisten benötigt werden. Wie in der Fertigung sah ich, wie Robotik eingesetzt wurde, um älteren Menschen zu helfen – und gefährliche Handarbeit in unserer Gesellschaft zu automatisieren. Ich habe jedoch meinen Ph.D. erhalten. in einem anderen Teilgebiet der Informatik, weil ich glaube, dass ein starkes theoretisches Fundament in der Informatik es einem ermöglicht, fundierte und wissenschaftliche Entscheidungen darüber zu treffen, wo KI geeignet sein könnte oder nicht und wo Fallstricke lauern könnten.

Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?

Ich nutze mein umfassendes Fachwissen und meinen Hintergrund in Sicherheitstechnik und sicherheitskritischen Systemen, um bei Bedarf Kontext und Kritik zum neuen Bereich der KI-„Sicherheit“ bereitzustellen. Obwohl im Bereich der KI-Sicherheit versucht wurde, etablierte Sicherheitstechniken anzupassen und zu zitieren, wurden verschiedene Begriffe in ihrer Verwendung und Bedeutung falsch interpretiert. Es mangelt an konsistenten oder absichtlichen Definitionen, die die Integrität der Sicherheitstechniken gefährden, die die KI-Community derzeit verwendet. Ich bin besonders stolz auf „Auf dem Weg zu umfassenden Risikobewertungen und zur Sicherung KI-basierter Systeme“ Und „Ein Gefahrenanalyse-Framework für die Codesynthese großer Sprachmodelle„Hier dekonstruiere ich falsche Narrative über Sicherheit und KI-Bewertungen und gebe konkrete Schritte zur Überbrückung der Sicherheitslücke innerhalb der KI.

Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?

Wir diskutieren nicht oft darüber, wie wenig sich der Status quo geändert hat, aber ich glaube, dass es für mich und andere technische Frauen tatsächlich wichtig ist, unsere Position innerhalb der Branche zu verstehen und eine realistische Sicht auf die erforderlichen Änderungen zu haben. Die Bindungsraten und der Anteil von Frauen in Führungspositionen sind weitgehend gleich geblieben, seit ich in die Branche eingestiegen bin, und das vor über einem Jahrzehnt. Und wie Tech treffend betont hat, bleiben wir trotz enormer Durchbrüche und Beiträge von Frauen in der KI von Gesprächen ausgeschlossen, die wir selbst definiert haben. Das Erkennen dieser mangelnden Fortschritte half mir zu verstehen, dass der Aufbau einer starken persönlichen Gemeinschaft als Quelle der Unterstützung viel wertvoller ist, als sich auf DEI-Initiativen zu verlassen, die leider nichts gebracht haben, da Voreingenommenheit und Skepsis gegenüber technischen Frauen immer noch weit verbreitet sind Technik.

Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?

Sich nicht auf Autoritäten zu berufen und eine Arbeit zu finden, an die man wirklich glaubt, auch wenn sie populären Erzählungen widerspricht. Angesichts der Macht, die KI-Labore derzeit in politischer und wirtschaftlicher Hinsicht haben, besteht der Instinkt, alles, was „Vordenker“ im Bereich KI sagen, als Tatsache zu betrachten, obwohl es sich bei vielen KI-Behauptungen häufig um Marketing-Gerede handelt, die die Vorteile der KI überbewerten ein Endergebnis. Dennoch beobachte ich eine erhebliche Zurückhaltung, insbesondere bei jungen Frauen in diesem Bereich, Skepsis gegenüber Behauptungen ihrer männlichen Kollegen zu äußern, die sich nicht belegen lassen. Das Imposter-Syndrom hat einen starken Einfluss auf Frauen in der Technologiebranche und führt dazu, dass viele an ihrer eigenen wissenschaftlichen Integrität zweifeln. Aber es ist wichtiger denn je, Behauptungen in Frage zu stellen, die die Fähigkeiten der KI übertreiben, insbesondere solche, die mit der wissenschaftlichen Methode nicht falsifizierbar sind.

Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?

Unabhängig von den Fortschritten, die wir in der KI beobachten werden, werden sie weder technologisch noch sozial die alleinige Lösung für unsere Probleme sein. Derzeit gibt es einen Trend, KI in jedes mögliche System einzuschleusen, unabhängig von ihrer Wirksamkeit (oder mangelnden Wirksamkeit) in zahlreichen Bereichen. KI sollte die menschlichen Fähigkeiten erweitern, anstatt sie zu ersetzen, und wir erleben eine völlige Missachtung der Fallstricke und Fehlermodi der KI, die zu echtem, spürbarem Schaden führen. Erst kürzlich ein KI-System ShotSpotter führte kürzlich dazu, dass ein Beamter auf ein Kind schoss.

Welche Probleme sollten KI-Benutzer beachten?

Wie wirklich unzuverlässig KI ist. KI-Algorithmen sind bekanntermaßen fehlerhaft und weisen bei Anwendungen, die Präzision, Genauigkeit und Sicherheitskritikalität erfordern, hohe Fehlerraten auf. Die Art und Weise, wie KI-Systeme trainiert werden, integriert menschliche Voreingenommenheit und Diskriminierung in ihre Ergebnisse, die „de facto“ und automatisiert werden. Und das liegt daran, dass die Natur von KI-Systemen darin besteht, Ergebnisse zu liefern, die auf statistischen und probabilistischen Schlussfolgerungen und Korrelationen aus historischen Daten basieren, und nicht auf irgendeiner Art von Argumentation, sachlichen Beweisen oder „Ursachen“.

Was ist der beste Weg, KI verantwortungsvoll aufzubauen?

Um sicherzustellen, dass die KI auf eine Weise entwickelt wird, die die Rechte und die Sicherheit der Menschen schützt, indem überprüfbare Behauptungen aufgestellt und die KI-Entwickler ihnen gegenüber zur Rechenschaft gezogen werden. Diese Behauptungen sollten sich auch auf eine regulatorische, sicherheitstechnische, ethische oder technische Anwendung beziehen und dürfen nicht fälschbar sein. Ansonsten mangelt es erheblich an wissenschaftlicher Integrität, um diese Systeme angemessen zu bewerten. Unabhängige Regulierungsbehörden sollten KI-Systeme auch anhand dieser Angaben bewerten, wie dies derzeit für viele Produkte und Systeme in anderen Branchen erforderlich ist – beispielsweise für solche, die von der FDA bewertet werden. KI-Systeme sollten nicht von Standardprüfungsprozessen ausgenommen werden, die etabliert sind, um den Schutz der Öffentlichkeit und der Verbraucher zu gewährleisten.

Wie können Anleger verantwortungsvolle KI besser vorantreiben?

Anleger sollten mit Organisationen zusammenarbeiten und diese finanzieren, die Prüfungspraktiken für KI etablieren und weiterentwickeln möchten. Der Großteil der Mittel wird derzeit in KI-Labore selbst investiert, in der Überzeugung, dass ihre Sicherheitsteams für die Weiterentwicklung von KI-Bewertungen ausreichen. Unabhängige Prüfer und Regulierungsbehörden sind jedoch der Schlüssel zum öffentlichen Vertrauen. Unabhängigkeit ermöglicht es der Öffentlichkeit, auf die Genauigkeit und Integrität der Bewertungen und die Integrität der Regulierungsergebnisse zu vertrauen.

tch-1-tech