Führende KI-Entwickler wie OpenAI und Anthropic versuchen, Software an das US-Militär zu verkaufen: Sie wollen das Pentagon effizienter machen, ohne zuzulassen, dass ihre KI Menschen tötet.
Heutzutage werden ihre Werkzeuge nicht mehr als Waffen eingesetzt, aber die KI verschafft dem Verteidigungsministerium einen „erheblichen Vorteil“ bei der Identifizierung, Verfolgung und Bewertung von Bedrohungen, sagte Dr. Radha Plumb, Chief Digital and AI Officer des Pentagons, gegenüber Tech Telefoninterview.
„Wir verbessern offensichtlich die Möglichkeiten, die Ausführung der Tötungskette zu beschleunigen, damit unsere Kommandeure rechtzeitig reagieren können, um unsere Streitkräfte zu schützen“, sagte Plumb.
Die „Kill Chain“ bezieht sich auf den Prozess des Militärs zur Identifizierung, Verfolgung und Beseitigung von Bedrohungen, der ein komplexes System aus Sensoren, Plattformen und Waffen umfasst. Laut Plumb erweist sich generative KI in der Planungs- und Strategiephase der Kill Chain als hilfreich.
Die Beziehung zwischen dem Pentagon und KI-Entwicklern ist relativ neu. OpenAI, Anthropic und Meta haben ihre Nutzungsrichtlinien im Jahr 2024 zurückgenommen, um US-Geheimdiensten und Verteidigungsbehörden die Nutzung ihrer KI-Systeme zu ermöglichen. Dennoch lassen sie nicht zu, dass ihre KI Menschen schadet.
„Wir haben sehr klar zum Ausdruck gebracht, wofür wir ihre Technologien nutzen werden und wofür nicht“, sagte Plumb auf die Frage, wie das Pentagon mit Anbietern von KI-Modellen zusammenarbeitet.
Nichtsdestotrotz löste dies eine Speed-Dating-Runde für KI-Unternehmen und Verteidigungsunternehmen aus.
Meta Partnerschaft mit Lockheed Martin und Booz Allenunter anderem, um seine Llama-KI-Modelle im November den Verteidigungsbehörden zur Verfügung zu stellen. Im selben Monat schloss sich Anthropic mit Palantir zusammen. Im Dezember, OpenAI hat einen ähnlichen Deal abgeschlossen mit Anduril. Im Stillen hat Cohere seine Modelle auch mit Palantir eingesetzt.
Da die generative KI im Pentagon ihre Nützlichkeit unter Beweis stellt, könnte sie das Silicon Valley dazu veranlassen, seine KI-Nutzungsrichtlinien zu lockern und mehr militärische Anwendungen zuzulassen.
„Das Durchspielen verschiedener Szenarien ist etwas, bei dem generative KI hilfreich sein kann“, sagte Plumb. „Es ermöglicht Ihnen, das gesamte Spektrum an Werkzeugen zu nutzen, die unseren Kommandanten zur Verfügung stehen, aber auch kreativ über verschiedene Reaktionsoptionen und mögliche Kompromisse in einem Umfeld nachzudenken, in dem eine potenzielle Bedrohung oder eine Reihe von Bedrohungen strafrechtlich verfolgt werden müssen.“ ”
Es ist unklar, wessen Technologie das Pentagon für diese Arbeit verwendet. Der Einsatz generativer KI in der Kill Chain (sogar in der frühen Planungsphase) scheint gegen die Nutzungsrichtlinien mehrerer führender Modellentwickler zu verstoßen. Anthropics PolitikBeispielsweise verbietet es die Verwendung seiner Modelle zur Herstellung oder Modifizierung von „Systemen, die dazu bestimmt sind, Menschenleben zu schädigen oder zu fordern“.
Als Antwort auf unsere Fragen wies Anthropic Tech auf seinen CEO Dario Amodei hin aktuelles Interview mit der Financial Timeswo er seine militärische Arbeit verteidigte:
Die Position, dass wir KI niemals im Verteidigungs- und Geheimdienstbereich einsetzen sollten, ergibt für mich keinen Sinn. Die Position, dass wir Gangbuster werden und damit alles herstellen sollten, was wir wollen – bis hin zu Weltuntergangswaffen –, das ist offensichtlich genauso verrückt. Wir versuchen, den Mittelweg zu finden und die Dinge verantwortungsvoll zu erledigen.
OpenAI, Meta und Cohere antworteten nicht auf die Bitte von Tech um einen Kommentar.
Leben und Tod und KI-Waffen
In den letzten Monaten ist eine Debatte über Verteidigungstechnologie darüber entbrannt, ob KI-Waffen wirklich Entscheidungen über Leben und Tod treffen dürfen. Einige argumentieren, dass das US-Militär bereits über entsprechende Waffen verfügt.
Palmer Luckey, CEO von Anduril, kürzlich auf X vermerkt dass das US-Militär auf eine lange Geschichte des Kaufs und Einsatzes autonomer Waffensysteme wie z CIWS-Turm.
„Das Verteidigungsministerium kauft und nutzt seit Jahrzehnten autonome Waffensysteme. Ihre Verwendung (und ihr Export!) ist gut verstanden, genau definiert und explizit durch Regeln geregelt, die keineswegs freiwillig sind“, sagte Luckey.
Aber als Tech fragte, ob das Pentagon Waffen kauft und betreibt, die völlig autonom sind – also Waffen, bei denen kein Mensch beteiligt ist –, lehnte Plumb die Idee grundsätzlich ab.
„Nein, ist die kurze Antwort“, sagte Plumb. „Sowohl aus Gründen der Zuverlässigkeit als auch der Ethik werden wir immer Menschen in die Entscheidung über den Einsatz von Gewalt einbeziehen, und das gilt auch für unsere Waffensysteme.“
Das Wort „Autonomie“ ist etwas zweideutig und hat in der gesamten Technologiebranche Debatten darüber ausgelöst, wann automatisierte Systeme – wie KI-Programmierungsagenten, selbstfahrende Autos oder selbstfeuernde Waffen – wirklich unabhängig werden.
Plumb sagte, die Vorstellung, dass automatisierte Systeme unabhängig Entscheidungen über Leben und Tod treffen, sei „zu binär“ und die Realität sei weniger „Science-Fiction“. Sie schlug vielmehr vor, dass der Einsatz von KI-Systemen durch das Pentagon in Wirklichkeit eine Zusammenarbeit zwischen Menschen und Maschinen sei, bei der hochrangige Führungskräfte während des gesamten Prozesses aktive Entscheidungen treffen.
„Die Leute neigen dazu, darüber nachzudenken, als gäbe es irgendwo Roboter und dann den Gonkulator [a fictional autonomous machine] „Spuckt ein Blatt Papier aus und die Menschen kreuzen einfach ein Kästchen an“, sagte Plumb. „So funktioniert Mensch-Maschine-Teaming nicht, und das ist keine effektive Möglichkeit, diese Art von KI-Systemen zu nutzen.“
KI-Sicherheit im Pentagon
Militärische Partnerschaften kamen bei den Mitarbeitern des Silicon Valley nicht immer gut an. Letztes Jahr waren es Dutzende Amazon- und Google-Mitarbeiter wurden entlassen und verhaftet, nachdem sie gegen die Militärverträge ihrer Unternehmen mit Israel protestiert hattenCloud-Deals, die unter dem Codenamen „Project Nimbus“ fielen.
Im Vergleich dazu gab es eine recht verhaltene Reaktion der KI-Community. Einige KI-Forscher, wie etwa Evan Hubinger von Anthropic, sagen, dass der Einsatz von KI im Militär unvermeidlich sei und dass es entscheidend sei, direkt mit dem Militär zusammenzuarbeiten, um sicherzustellen, dass es richtig gemacht wird.
„Wenn man die katastrophalen Risiken der KI ernst nimmt, ist die US-Regierung ein äußerst wichtiger Akteur, mit dem man zusammenarbeiten muss, und der Versuch, die US-Regierung einfach am Einsatz von KI zu hindern, ist keine praktikable Strategie“, sagte Hubinger in einem November Beitrag im Online-Forum LessWrong posten. „Es reicht nicht aus, sich nur auf Katastrophenrisiken zu konzentrieren, man muss auch verhindern, dass die Regierung ihre Modelle möglicherweise missbraucht.“