Im Rahmen von TechCrunchs laufender Serie „Women in AI“, die KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und längst überfällige – Zeit im Rampenlicht geben soll, interviewte Tech Lakshmi Raman, die KI-Direktorin der CIA. Wir sprachen über ihren Weg zur Direktorin sowie über den Einsatz von KI bei der CIA und über die Balance, die zwischen der Akzeptanz neuer Technologien und ihrem verantwortungsvollen Einsatz gefunden werden muss.
Raman ist schon lange im Geheimdienst tätig. Sie kam 2002 als Softwareentwicklerin zur CIA, nachdem sie ihren Bachelor an der University of Illinois Urbana-Champaign und ihren Master in Informatik an der University of Chicago erworben hatte. Einige Jahre später wechselte sie ins Management der Agentur und leitete schließlich die gesamten unternehmensweiten Data-Science-Aktivitäten der CIA.
Raman sagt, sie habe das Glück gehabt, bei der CIA auf weibliche Vorbilder und Vorgängerinnen zurückgreifen zu können, da der Geheimdienstbereich traditionell eine Männerdomäne sei.
„Ich habe immer noch Leute, zu denen ich aufschauen kann, die ich um Rat fragen kann und die ich ansprechen kann, wenn es darum geht, wie die nächste Führungsebene aussehen soll“, sagte sie. „Ich denke, es gibt Dinge, die jede Frau im Rahmen ihrer Karriere bewältigen muss.“
In ihrer Rolle als Direktorin orchestriert, integriert und treibt Raman KI-Aktivitäten in der gesamten CIA voran. „Wir glauben, dass KI unsere Mission unterstützt“, sagte sie. „Menschen und Maschinen stehen gemeinsam im Mittelpunkt unseres Einsatzes von KI.“
KI ist für die CIA nichts Neues. Die Agentur erforscht seit etwa 2000 Anwendungen der Datenwissenschaft und KI, sagt Raman, insbesondere in den Bereichen der Verarbeitung natürlicher Sprache (also der Textanalyse), der Computervision (Bildanalyse) und der Videoanalyse. Die CIA versuche, mit neueren Trends wie generativer KI auf dem Laufenden zu bleiben, fügte sie hinzu, und verfolge dabei einen Fahrplan, der sowohl von der Industrie als auch von der Wissenschaft beeinflusst wird.
„Wenn wir an die riesigen Datenmengen denken, die wir in der Agentur verarbeiten müssen, ist die Inhaltssichtung ein Bereich, in dem generative KI einen Unterschied machen kann“, sagte Raman. „Wir betrachten Dinge wie Such- und Entdeckungshilfe, Ideenfindungshilfe und Hilfe bei der Entwicklung von Gegenargumenten, um einer möglichen analytischen Voreingenommenheit entgegenzuwirken.“
Innerhalb der US-Geheimdienste herrscht ein Gefühl der Dringlichkeit, beliebig Werkzeuge, die der CIA helfen könnten, wachsende geopolitische Spannungen auf der ganzen Welt zu bekämpfen, von Terrordrohungen, die durch den Krieg in Gaza motiviert sind, bis hin zu Desinformationskampagnen ausländischer Akteure (z. B. China, Russland). Letztes Jahr hat das Special Competitive Studies Project, eine hochkarätige Beratergruppe, die sich auf KI in der nationalen Sicherheit konzentriert, einen Zweijahresplan für die Inlandsgeheimdienste festlegen über Experimente und begrenzte Pilotprojekte hinauszugehen und generative KI im großen Maßstab einzuführen.
Ein generatives KI-gestütztes Tool, das die CIA entwickelt hat, heißt Osiris und ähnelt ChatGPT von OpenAI, ist aber für Geheimdienstanwendungen angepasst. Es fasst Daten zusammen – derzeit nur nicht klassifizierte und öffentlich oder kommerziell verfügbare Daten – und ermöglicht es Analysten, tiefer zu graben, indem sie in einfachem Englisch Folgefragen stellen.
Osiris wird mittlerweile von Tausenden von Analysten nicht nur innerhalb der CIA, sondern auch in den 18 US-Geheimdiensten verwendet. Raman wollte nicht verraten, ob die Software intern entwickelt wurde oder ob sie auf der Technologie von Drittunternehmen basiert, sagte aber, dass die CIA Partnerschaften mit namhaften Anbietern unterhält.
„Wir nutzen kommerzielle Dienste“, sagte Raman und fügte hinzu, dass die CIA auch KI-Tools für Aufgaben wie Übersetzungen einsetzt und Analysten außerhalb der Arbeitszeiten über potenziell wichtige Entwicklungen informiert. „Wir müssen eng mit der Privatwirtschaft zusammenarbeiten, um nicht nur die größeren Dienste und Lösungen anbieten zu können, von denen Sie gehört haben, sondern auch Nischendienste von nicht-traditionellen Anbietern, an die Sie vielleicht noch nicht gedacht haben.“
Eine heikle Technologie
Es gibt jede Menge Gründe, dem Einsatz künstlicher Intelligenz durch die CIA skeptisch und besorgt gegenüberzustehen.
Im Februar 2022 enthüllten die Senatoren Ron Wyden (D-OR) und Martin Heinrich (D-New Mexico) in einem öffentlichen Brief, dass die CIA, obwohl es ihr generell untersagt ist, gegen Amerikaner und amerikanische Unternehmen zu ermitteln, verfügt über einen geheimen, nicht offengelegten Datenspeicher Dazu gehören Informationen, die über US-Bürger gesammelt wurden. Und im vergangenen Jahr zeigte ein Bericht des Office of the Director of National Intelligence, dass US-Geheimdienste, darunter die CIA, Daten über Amerikaner von Datenhändlern kaufen wie LexisNexis und Sayari Analytics mit wenig Aufsicht.
Sollte die CIA jemals KI einsetzen, um diese Daten zu durchforsten, würden viele Amerikaner mit Sicherheit Einwände erheben. Es wäre ein klarer Verstoß gegen die bürgerlichen Freiheiten und könnte aufgrund der Beschränkungen der KI zu ernsthaft ungerechten Ergebnissen führen.
Mehrere Studien haben gezeigt, dass Predictive Crime-Algorithmen von Firmen wie Geolitica leicht verzerrt durch Verhaftungsraten und neigen dazu, schwarze Gemeinschaften überproportional zu kennzeichnen. Andere Studien lassen darauf schließen, dass die Gesichtserkennung bei farbigen Menschen häufiger zu Fehlidentifizierungen führt als bei weißen Menschen.
Abgesehen von Voreingenommenheit halluziniert selbst die beste KI heutzutage oder erfindet Fakten und Zahlen als Antwort auf Anfragen. Nehmen wir zum Beispiel die Software zur Zusammenfassung von Meetings von Microsoft, die schreibt Zitate gelegentlich nicht existierenden Personen zuMan kann sich vorstellen, dass dies in der Geheimdienstarbeit, wo Genauigkeit und Überprüfbarkeit von größter Bedeutung sind, zu einem Problem werden könnte.
Raman bestand darauf, dass die CIA nicht nur sämtliche US-Gesetze einhalte, sondern auch „alle ethischen Richtlinien befolge“ und KI „auf eine Weise verwende, die Voreingenommenheit abmildere“.
„Ich würde es einen durchdachten Ansatz nennen [to AI]”, sagte sie. „Ich würde sagen, dass wir mit unserem Ansatz wollen, dass unsere Nutzer so viel wie möglich über das KI-System erfahren, das sie verwenden. Um eine verantwortungsvolle KI zu entwickeln, müssen wir alle Beteiligten einbeziehen; das heißt KI-Entwickler, das heißt unser Büro für Datenschutz und Bürgerrechte. [and so on].”
Ramans Argument: Unabhängig davon, was ein KI-System leisten soll, ist es wichtig, dass die Entwickler des Systems die Bereiche deutlich machen, in denen es versagen könnte. In einer aktuellen Studie stellten Forscher der North Carolina State University fest, dass KI-Tools, darunter Algorithmen zur Gesichtserkennung und Schusserkennung, wurden von Polizisten eingesetzt, die mit den Technologien nicht vertraut waren oder ihre Mängel.
Ein besonders krasses Beispiel für den Missbrauch von KI durch Strafverfolgungsbehörden, der vielleicht aus Unwissenheit entstand, ist die NYPD soll einst Fotos von Prominenten verwendet habenverzerrte Bilder und Skizzen, um Gesichtserkennungsübereinstimmungen bei Verdächtigen zu generieren, wenn Überwachungsfotos keine Ergebnisse lieferten.
„Jede Ausgabe, die von KI generiert wird, sollte für die Benutzer klar verständlich sein, und das bedeutet natürlich, dass KI-generierte Inhalte gekennzeichnet und klare Erklärungen zur Funktionsweise von KI-Systemen bereitgestellt werden“, sagte Raman. „Bei allem, was wir in der Agentur tun, halten wir uns an unsere gesetzlichen Anforderungen und stellen sicher, dass unsere Benutzer, unsere Partner und unsere Interessenvertreter alle relevanten Gesetze, Vorschriften und Richtlinien kennen, die die Verwendung unserer KI-Systeme regeln, und wir halten uns an alle diese Regeln.“
Der Reporter hofft jedenfalls, dass das stimmt.