Für den Einsatz militärischer künstlicher Intelligenz gibt es kaum Regeln. Jetzt, wo die Entwicklungen der KI so schnell voranschreiten, sollte es so sein. Wenn eine Waffe beschließt, alleine auf ein Ziel zu schießen, kann dann jemand anderes dafür verantwortlich gemacht werden?
Wir müssen schnell handeln, um militärische KI richtig einzusetzen. Zu diesem Schluss kam Minister Wopke Hoekstra (Auswärtige Angelegenheiten) am Donnerstagnachmittag während der Abschlussfeier von REAIM. Zwei Tage lang widmete sich das Weltforum in Den Haag den großen Themen der künstlichen Intelligenz.
Die Konferenz drehte sich um den „verantwortungsvollen Umgang mit KI im militärischen Bereich“. Da denkt man schnell an Killerroboter. Das nennen wir Waffen, die vollkommen selbstständig arbeiten. Also ohne menschliches Eingreifen, sondern mit Hilfe von KI. Diese Waffentypen werden noch nicht in Konflikten eingesetzt, aber sie werden entwickelt.
Forderung nach einem Verbot autonomer Waffen
Amnesty International ist darüber besorgt. „Kriegsführung ist nie klar oder transparent“, sagt Generalsekretärin Agnès Callamard von der Menschenrechtsorganisation. „Kriege sind böse und nutzen Voreingenommenheit aus. Sie können KI anweisen, Ziele mit einem bestimmten Hintergrund oder Aussehen auszuschalten. KI macht Waffen präziser und tödlicher. Und glauben Sie nicht, dass nur Menschen mit guten Absichten diese Art von Waffen verwenden.“
Also muss schnell etwas geschehen, sagt Callamard. Sie fordert verbindliche, internationale Regelungen. Damit ist sie nicht allein. „Regierungen müssen klarere Regeln darüber aufstellen, was erlaubt ist und was nicht“, sagte Marietje Schaake, Direktorin für internationale Politik am Cyber Policy Center von Stanford. „Denken Sie an ein Verbot selbstdenkender Waffen.“
Der britische Informatiker Stuart Russell plädiert vehement für ein solches Verbot. „Wenn wir solche Entwicklungen nicht verbieten oder zumindest einschränken, werden sie zu Massenvernichtungswaffen“, sagt er. „Eine Person kann einen Knopf drücken und Millionen von Menschen töten. Es gibt bereits internationale Verträge, die den Einsatz biologischer Waffen verbieten. Wir sollten damit dasselbe tun.“
Wer ist verantwortlich?
Aber bei der Konferenz ging es um mehr als nur um Killerroboter. Referenten philosophierten beispielsweise darüber, was KI genau ist und wie wir sicher sein können, dass die Technologie niemals diskriminiert. Laut dem niederländischen Oberbefehlshaber der Streitkräfte Onno Eichelsheim steht fest: „Wir müssen lernen, mit KI umzugehen, denn sie wird nicht verschwinden.“
Ein wichtiger Punkt dabei ist die Verantwortung. Wenn eine Waffe mit künstlicher Intelligenz ausgestattet ist und es (unschuldige) Opfer gibt, wer ist verantwortlich? Die Antwort ist noch nicht so einfach. Die Person, die den Befehl zum Einsatz einer Maschine gibt, ist für diese Wahl verantwortlich.
Aber wer ist schuld, wenn ein Gerät gehackt wird oder ein Softwarefehler auftritt? Vom Kommandanten? Von der Regierung? Oder vom Hersteller? Mit anderen Worten, wer trägt die Konsequenzen?
Mehr Klarheit darüber, wie KI funktioniert, ist erforderlich
„Wir sollten niemals Computer entscheiden lassen, wer lebt und wer nicht“, warnt Russell. Aber KI könnte in bestimmten Situationen helfen, sagt Eichelsheim. Zum Beispiel in der Abwehr. Wenn ein Angriff mit Hyperschallraketen so schnell kommt, dass wir als Menschen ohnehin zu spät eingreifen. Dann könnte das eine KI selbstständig erledigen.
Dann muss aber klar sein, wie die KI zu einer Entscheidung kommt. Künstliche Intelligenz ist oft noch eine sogenannte Black Box. Wir geben eine Frage ein und eine Antwort kommt heraus, ohne genau zu wissen, wie der Computer zu dieser Antwort gekommen ist. „Das ist uns nicht gut genug“, sagt Walker. „Alles muss erklärbar sein. Warum sagt mir die KI, wo sich der Feind versteckt? Woher weiß die KI, welche Waffen sie haben? Wie kommt der Computer darauf?
Leere Begriffe und ausgefallene Wörter
Ministerin Kajsa Ollongren (Verteidigung) lobt die Diskussionen, die während der Konferenz stattgefunden haben. Aber Lösungen, etwa in Form eines Vertrages, blieben aus. „Die eigentliche Arbeit fängt gerade erst an“, sagt sie. Im vergangenen Jahr hatte das Kabinett erklärt, es wolle die Regulierung autonomer Waffen beschleunigen.
Daan Kayser, Projektleiter für autonome Waffen der Friedensorganisation PAX, findet es besorgniserregend, dass autonome Waffen während REAIM nicht weiter oben auf der Tagesordnung standen. „Diese Konferenz war eine großartige Gelegenheit, die Akte voranzubringen.“
Laut Kayser hat sich die Konferenz zu sehr in Floskeln und Floskeln verstrickt. „Seit Jahren wird darüber gesprochen, was militärische KI ist und dass die Verantwortung für Entscheidungen beim Menschen liegen sollte“, sagt er. „Das ist ein dringendes Problem, die Niederlande hätten während der Konferenz mehr Ehrgeiz zeigen sollen. Zum Beispiel mit den Worten: ‚Wir wollen einen Vertrag. Das sind unsere Ideen. Lasst uns darüber reden‘.“
Minister Hoekstra sieht diese Konferenz eindeutig als Ausgangspunkt. Er sagt, es sei wichtig, dass REAIM ein Signal an andere Länder gesendet habe, auch die volle Verantwortung für den Einsatz von militärischer KI zu übernehmen. „Auf eine Weise, die unseren Regeln und Werten entspricht.“