Künstliche Intelligenz ist in allen Lebensbereichen präsent. Bei den Streitkräften ist es nicht anders. Laut einem aktuellen Bericht von BloombergDer Einsatz von Werkzeugen der künstlichen Intelligenz (KI) durch das US-Militär hat nach dem 7. Oktober stark zugenommen Hamas Angriffe auf Israel,
Schuyler Mooreder Chief Technology Officer bei US-Zentralkommandoenthüllte gegenüber Bloomberg, dass maschinelle Lernalgorithmen eine entscheidende Rolle bei der Identifizierung von Zielen für über 85 Luftangriffe im Nahen Osten in diesem Monat spielten.
Dem Bericht zufolge führten US-Bomber und Kampfflugzeuge diese Luftangriffe am 2. Februar gegen sieben Einrichtungen im Irak und in Syrien durch. Ziel der Angriffe sei die vollständige Zerstörung oder erhebliche Beschädigung von Raketen, Flugkörpern, Drohnenlagern und Operationszentren der Milizen, heißt es in dem Bericht.
Darüber hinaus wurden KI-Systeme eingesetzt, um Raketenwerfer im Jemen und Überwasserkämpfer im Roten Meer zu erkennen, die anschließend durch mehrere Luftangriffe im selben Monat eliminiert wurden.
Diese Algorithmen für maschinelles Lernen wurden im Rahmen von Project Maven entwickelt, einer Partnerschaft zwischen Google und das Pentagon, das Drohnenaufnahmen analysierte und Bilder zur weiteren menschlichen Überprüfung markierte. Das Projekt löste unter Google-Mitarbeitern Kontroversen aus und veranlasste Tausende dazu, eine Petition gegen die Zusammenarbeit einzureichen. Schließlich beschloss Google, seinen Vertrag im Jahr 2019 nicht zu verlängern.
Trotz des Rückzugs von Google erklärte Moore, dass das US-Militär im Nahen Osten weiterhin mit KI-Algorithmen experimentiere, um potenzielle Ziele mithilfe von Drohnen- oder Satellitenbildern zu identifizieren. Der eigentliche Einsatz von Zielalgorithmen begann zwar im Rahmen digitaler Übungen im vergangenen Jahr, begann jedoch nach den Hamas-Anschlägen vom 7. Oktober.
Moore betonte jedoch, dass die menschliche Aufsicht während des gesamten Prozesses ein wesentlicher Bestandteil sei. Menschliches Personal war für die Validierung der Zielempfehlungen der KI-Systeme und die Entwicklung von Angriffsstrategien, einschließlich der Waffenauswahl, verantwortlich. Moore stellte klar: „Es gibt nie einen Algorithmus, der einfach nur läuft, zu einem Ergebnis kommt und dann zum nächsten Schritt übergeht.“ Jeder KI-bezogene Schritt wurde einer menschlichen Überprüfung unterzogen, heißt es in dem Bericht.
Schuyler Mooreder Chief Technology Officer bei US-Zentralkommandoenthüllte gegenüber Bloomberg, dass maschinelle Lernalgorithmen eine entscheidende Rolle bei der Identifizierung von Zielen für über 85 Luftangriffe im Nahen Osten in diesem Monat spielten.
Dem Bericht zufolge führten US-Bomber und Kampfflugzeuge diese Luftangriffe am 2. Februar gegen sieben Einrichtungen im Irak und in Syrien durch. Ziel der Angriffe sei die vollständige Zerstörung oder erhebliche Beschädigung von Raketen, Flugkörpern, Drohnenlagern und Operationszentren der Milizen, heißt es in dem Bericht.
Darüber hinaus wurden KI-Systeme eingesetzt, um Raketenwerfer im Jemen und Überwasserkämpfer im Roten Meer zu erkennen, die anschließend durch mehrere Luftangriffe im selben Monat eliminiert wurden.
Diese Algorithmen für maschinelles Lernen wurden im Rahmen von Project Maven entwickelt, einer Partnerschaft zwischen Google und das Pentagon, das Drohnenaufnahmen analysierte und Bilder zur weiteren menschlichen Überprüfung markierte. Das Projekt löste unter Google-Mitarbeitern Kontroversen aus und veranlasste Tausende dazu, eine Petition gegen die Zusammenarbeit einzureichen. Schließlich beschloss Google, seinen Vertrag im Jahr 2019 nicht zu verlängern.
Trotz des Rückzugs von Google erklärte Moore, dass das US-Militär im Nahen Osten weiterhin mit KI-Algorithmen experimentiere, um potenzielle Ziele mithilfe von Drohnen- oder Satellitenbildern zu identifizieren. Der eigentliche Einsatz von Zielalgorithmen begann zwar im Rahmen digitaler Übungen im vergangenen Jahr, begann jedoch nach den Hamas-Anschlägen vom 7. Oktober.
Moore betonte jedoch, dass die menschliche Aufsicht während des gesamten Prozesses ein wesentlicher Bestandteil sei. Menschliches Personal war für die Validierung der Zielempfehlungen der KI-Systeme und die Entwicklung von Angriffsstrategien, einschließlich der Waffenauswahl, verantwortlich. Moore stellte klar: „Es gibt nie einen Algorithmus, der einfach nur läuft, zu einem Ergebnis kommt und dann zum nächsten Schritt übergeht.“ Jeder KI-bezogene Schritt wurde einer menschlichen Überprüfung unterzogen, heißt es in dem Bericht.