Um KI-fokussierten Akademikerinnen und anderen ihre wohlverdiente – und überfällige – Zeit im Rampenlicht zu geben, startet Tech eine Reihe von Interviews, die sich auf bemerkenswerte Frauen konzentrieren, die zur KI-Revolution beigetragen haben. Da der KI-Boom anhält, werden wir im Laufe des Jahres mehrere Artikel veröffentlichen, in denen wir wichtige Arbeiten hervorheben, die oft unerkannt bleiben. Weitere Profile lesen Sie hier.
Urvashi Aneja ist Gründungsdirektor des Digital Futures Lab, einer interdisziplinären Forschungsinitiative, die die Interaktion zwischen Technologie und Gesellschaft im globalen Süden untersuchen möchte. Sie ist außerdem Associate Fellow im Asien-Pazifik-Programm von Chatham House, einem unabhängigen Politikinstitut mit Sitz in London.
Anejas aktuelle Forschung konzentriert sich auf die gesellschaftlichen Auswirkungen algorithmischer Entscheidungssysteme in Indien, wo sie lebt, und auf Plattform-Governance. Aneja hat kürzlich eine Studie über den aktuellen Einsatz von KI in Indien verfasst und dabei Anwendungsfälle in verschiedenen Sektoren untersucht, darunter Polizei und Landwirtschaft.
Fragen und Antworten
Kurz gesagt, wie haben Sie mit der KI begonnen? Was hat Sie an diesem Fachgebiet gereizt?
Ich begann meine Karriere in der Forschung und im politischen Engagement im humanitären Sektor. Mehrere Jahre lang habe ich den Einsatz digitaler Technologien in langwierigen Krisen in ressourcenarmen Kontexten untersucht. Ich habe schnell gelernt, dass es einen schmalen Grat zwischen Innovation und Experimentieren gibt, insbesondere wenn es um gefährdete Bevölkerungsgruppen geht. Die Erkenntnisse aus dieser Erfahrung haben mich zutiefst beunruhigt über die techno-lösungsorientierten Narrative rund um das Potenzial digitaler Technologien, insbesondere der KI. Zur gleichen Zeit hatte Indien seine gestartet Digitales Indien Mission und Nationale Strategie für Künstliche Intelligenz. Ich war beunruhigt über die vorherrschenden Narrative, die KI als Allheilmittel für die komplexen sozioökonomischen Probleme Indiens sahen, und über das völlige Fehlen eines kritischen Diskurses zu diesem Thema.
Auf welche Arbeit sind Sie am meisten stolz (im KI-Bereich)?
Ich bin stolz darauf, dass wir die Aufmerksamkeit auf die politische Ökonomie der KI-Produktion sowie auf die umfassenderen Auswirkungen auf soziale Gerechtigkeit, Arbeitsbeziehungen und ökologische Nachhaltigkeit lenken konnten. Sehr oft konzentrieren sich Erzählungen über KI auf die Vorteile bestimmter Anwendungen und bestenfalls auf die Vorteile und Risiken dieser Anwendung. Aber dabei geht der Wald vor lauter Bäumen verloren – eine produktorientierte Betrachtungsweise verschleiert die umfassenderen strukturellen Auswirkungen wie den Beitrag der KI zu epistemischer Ungerechtigkeit, der Dequalifizierung von Arbeitskräften und der Aufrechterhaltung unverantwortlicher Macht in der Mehrheitswelt. Ich bin auch stolz darauf, dass es uns gelungen ist, diese Bedenken in konkrete Richtlinien und Vorschriften umzusetzen – sei es bei der Gestaltung von Beschaffungsrichtlinien für den KI-Einsatz im öffentlichen Sektor oder bei der Bereitstellung von Beweismitteln in Gerichtsverfahren gegen Big-Tech-Unternehmen im globalen Süden.
Wie meistern Sie die Herausforderungen der männerdominierten Technologiebranche und damit auch der männerdominierten KI-Branche?
Indem ich meine Arbeit sprechen lasse. Und indem man ständig fragt: Warum?
Welchen Rat würden Sie Frauen geben, die in den KI-Bereich einsteigen möchten?
Entwickeln Sie Ihr Wissen und Ihre Expertise. Stellen Sie sicher, dass Ihr technisches Verständnis der Probleme solide ist, aber konzentrieren Sie sich nicht nur auf KI. Studieren Sie stattdessen umfassend, damit Sie bereichs- und disziplinübergreifende Verbindungen herstellen können. Nicht genügend Menschen verstehen KI als ein soziotechnisches System, das ein Produkt von Geschichte und Kultur ist.
Was sind einige der dringendsten Probleme, mit denen die KI im Zuge ihrer Weiterentwicklung konfrontiert ist?
Ich denke, das drängendste Problem ist die Machtkonzentration innerhalb einer Handvoll Technologieunternehmen. Dieses Problem ist zwar nicht neu, wird aber durch neue Entwicklungen bei großen Sprachmodellen und generativer KI verschärft. Viele dieser Unternehmen schüren inzwischen Ängste vor den existenziellen Risiken von KI. Dies lenkt nicht nur von den bestehenden Schäden ab, sondern positioniert diese Unternehmen auch als notwendig für die Bewältigung von KI-bedingten Schäden. In vielerlei Hinsicht verlieren wir etwas von der Dynamik des „Tech-Wahnsinns“, der nach der Cambridge-Analytica-Episode entstanden ist. In Ländern wie Indien mache ich mir auch Sorgen, dass KI als notwendig für die sozioökonomische Entwicklung positioniert wird und eine Chance bietet, hartnäckige Herausforderungen zu überwinden. Dies übertreibt nicht nur das Potenzial der KI, sondern lässt auch den Punkt außer Acht, dass es nicht möglich ist, die für die Entwicklung von Schutzmaßnahmen erforderliche institutionelle Entwicklung zu überspringen. Ein weiteres Problem, das wir nicht ernsthaft genug berücksichtigen, sind die Umweltauswirkungen der KI – die derzeitige Entwicklung wird wahrscheinlich nicht nachhaltig sein. Im aktuellen Ökosystem dürften diejenigen, die den Auswirkungen des Klimawandels am stärksten ausgesetzt sind, wahrscheinlich nicht von KI-Innovationen profitieren.
Welche Probleme sollten KI-Benutzer beachten?
Den Benutzern muss bewusst gemacht werden, dass KI keine Magie ist und auch nichts mit menschlicher Intelligenz zu tun hat. Dabei handelt es sich um eine Form der Computerstatistik, die viele nützliche Einsatzmöglichkeiten bietet, letztlich aber nur eine probabilistische Schätzung auf der Grundlage historischer oder früherer Muster darstellt. Ich bin mir sicher, dass es noch einige andere Probleme gibt, die Benutzer beachten müssen, aber ich möchte Sie warnen, dass wir uns vor Versuchen hüten sollten, die Verantwortung nach unten auf die Benutzer abzuwälzen. Ich sehe dies zuletzt beim Einsatz generativer KI-Tools in ressourcenarmen Kontexten in der Mehrheitswelt – anstatt bei diesen experimentellen und unzuverlässigen Technologien vorsichtig zu sein, verlagert sich der Fokus oft auf die Art und Weise, wie Endbenutzer, wie Landwirte oder an vorderster Front Gesundheitspersonal muss weiterqualifiziert werden.
Was ist der beste Weg, KI verantwortungsvoll aufzubauen?
Dies muss zunächst mit der Beurteilung des Bedarfs an KI beginnen. Gibt es ein Problem, das KI allein lösen kann, oder sind andere Mittel möglich? Und wenn wir KI entwickeln wollen, ist dann ein komplexes Black-Box-Modell erforderlich, oder könnte ein einfacheres logikbasiertes Modell genauso gut funktionieren? Wir müssen auch das Domänenwissen wieder in den Aufbau von KI einbeziehen. In der Obsession mit Big Data haben wir die Theorie geopfert – wir müssen eine Theorie des Wandels aufbauen, die auf Domänenwissen basiert, und diese sollte die Grundlage für die Modelle sein, die wir erstellen, und nicht nur Big Data allein. Dies gilt natürlich zusätzlich zu zentralen Themen wie Partizipation, inklusiven Teams, Arbeitsrechten usw.
Wie können Anleger verantwortungsvolle KI besser vorantreiben?
Investoren müssen den gesamten Lebenszyklus der KI-Produktion berücksichtigen – nicht nur die Ergebnisse von KI-Anwendungen. Dazu müssten eine Reihe von Fragen untersucht werden, etwa die Frage, ob Arbeit angemessen bewertet wird, die Auswirkungen auf die Umwelt, das Geschäftsmodell des Unternehmens (dh basiert es auf kommerzieller Überwachung?) und interne Maßnahmen zur Rechenschaftspflicht innerhalb des Unternehmens. Investoren müssen außerdem bessere und fundiertere Beweise für die angeblichen Vorteile von KI einfordern.