In unserer digital vermittelten Welt sind die Gräueltaten des Krieges kaum zu ignorieren. Flächenbrände in Europa (Ukraine–Russland), im Nahen Osten (Israel–Hamas) und anderswo verbreiten Bilder von Tod und Zerstörung so schnell, wie unsere Feeds sie verarbeiten können.
Mit der Weiterentwicklung der künstlichen Intelligenz können Kriegswaffen immer mehr Menschen ohne nennenswerte menschliche Aufsicht töten. Dies wirft besorgniserregende Fragen über die Art und Weise auf, wie die Kriege von heute und morgen geführt werden und wie autonome Waffensysteme die Rechenschaftspflicht bei potenziellen Verstößen schwächen könnten des Völkerrechts, die ihren Einsatz begleiten.
Denise Garcia, Professorin für Politikwissenschaft und internationale Angelegenheiten, fasst diese düsteren Realitäten in einem zusammen neues Buch zum Thema „The AI Military Race: Common Good Governance in the Age of Artificial Intelligence.“ Das Buch untersucht die Herausforderungen bei der „Schaffung eines globalen Governance-Rahmens“, der eine Welt grassierender KI-Waffensysteme vor dem Hintergrund der Verschlechterung des Völkerrechts und der internationalen Normen vorwegnimmt – tatsächlich eine Welt, die immer mehr die Welt beschreibt, in der wir jetzt leben.
Im Gespräch mit Northeastern Global News stellte Garcia, der von 2017 bis 2022 Mitglied des Internationalen Gremiums für die Regulierung autonomer Waffen war, fest, dass militärische KI-Anwendungen bereits in den anhaltenden Konflikten in Europa und im Nahen Osten – einem der bekanntesten – eingesetzt wurden Beispiele hierfür sind Israels Iron Dome.
Tatsächlich stelle die Möglichkeit, dass tödliche autonome Waffensysteme bald auf dem Schlachtfeld eingesetzt werden könnten, einen dringenden Bedarf an kollektiven Maßnahmen in Form von Richtlinien, Verträgen und spezifischen Technologieverboten dar, sagt sie.
„Die Welt muss zusammenkommen und neue globale öffentliche Güter schaffen, zu denen meiner Meinung nach ein Rahmen zur Steuerung der KI, aber auch gemeinsam vereinbarte Regeln für den Einsatz von KI im Militär gehören müssen“, sagt Garcia.
Laut Garcia hat die Beschleunigung der KI-Technologie auch Auswirkungen, die über das Verhalten auf dem Schlachtfeld hinausgehen und sich auf die nationale Sicherheit auswirken. Im Jahr 2021 forderte die US-amerikanische Nationale Sicherheitskommission für künstliche Intelligenz die USA auf, die rasante Entwicklung der KI fortzusetzen, um die nationale Sicherheit zu schützen und mit Russland und China konkurrenzfähig zu bleiben.
Garcia hat jedoch argumentiert, dass die Beschleunigung der militarisierten KI als solche nicht der richtige Ansatz sei und das Risiko berge, die Volatilität eines bereits äußerst instabilen internationalen Systems noch weiter zu erhöhen. Sie argumentiert, dass der Bericht der US-Kommission die Art des Denkens und der Strategie aus der Zeit des Kalten Krieges „wiederbelebte“, die in dieser Zeit zur Anhäufung von mehr als 70.000 Atomwaffen führte.
Stattdessen sagt sie, die USA sollten weiterhin auf eine Verringerung der Atomwaffenarsenale drängen und gleichzeitig Standards entwickeln, die den Menschen die volle Kontrolle über militärische und Schlachtfeldentscheidungen geben – ein Fall, den sie in dem Buch bis ins kleinste Detail darlegt.
„Einfach ausgedrückt sollte man der KI nicht zutrauen, Entscheidungen über die Kriegsführung zu treffen“, sagt Garcia.
Viele Wissenschaftler sind sich einig. Etwa 4.500 KI- und Robotikforscher haben gemeinsam erklärt, dass KI keine Entscheidungen in Bezug auf die Tötung von Menschen treffen sollte – eine Position, die Garcia zufolge mit den Richtlinien des Europäischen Parlaments und der Verordnung der Europäischen Union übereinstimmt. US-Beamte haben jedoch auf ein Regulierungsparadigma strenger Tests und Konzepte gedrängt, damit Menschen KI-Technologie nutzen können, „um die Entscheidung zum Töten zu treffen“.
„Auf dem Papier sieht das gut aus, ist aber in der Realität sehr schwer zu erreichen, da Algorithmen wahrscheinlich nicht in der Lage sein werden, die enorme Komplexität des Kriegsgeschehens zu verarbeiten“, sagt Garcia.
KI-Waffensysteme drohen nicht nur die völkerrechtlichen Verantwortlichkeitsnormen auf den Kopf zu stellen, sondern erschweren auch die Verfolgung von Kriegsverbrechen erheblich, da es Probleme mit der Zuweisung eines „Kombattantenstatus“ zu militärischer KI-Technologie gibt, sagt Garcia.
„Das Völkerrecht – und Gesetze im Allgemeinen – haben sich so entwickelt, dass sie den Menschen in den Mittelpunkt stellen“, sagt sie. „Wenn Sie einen Roboter oder eine Software in die Gleichung einbauen, wer wird dafür verantwortlich gemacht?“
Sie fährt fort: „Die Schwierigkeiten bei der Zuweisung von Verantwortung werden die Entmenschlichung der Kriegsführung beschleunigen. Wenn Menschen auf Daten reduziert werden, wird die Menschenwürde verschwinden.“
Bestehende militärische KI- und Quasi-KI-Anwendungen haben in Verteidigungskreisen bereits großes Aufsehen erregt. Einer Quelle zufolge ermöglicht eine solche Anwendung einer einzelnen Person die Steuerung mehrerer unbemannter Systeme, beispielsweise eines Drohnenschwarms, der in der Luft oder unter Wasser angreifen kann. Im Krieg in der Ukraine haben herumlungernde Munition – unbemannte Flugzeuge, die mithilfe von Sensoren Ziele identifizieren, oder „Killerdrohnen“ – eine Debatte darüber ausgelöst, wie viel Kontrolle menschliche Agenten genau über Zielentscheidungen haben.
Diese Geschichte wurde mit freundlicher Genehmigung von Northeastern Global News erneut veröffentlicht news.northeastern.edu.