KI-Drohne „tötete“ ihren eigenen Bediener während eines virtuellen Tests – USAF-Beamter – World

KI Drohne „toetete ihren eigenen Bediener waehrend eines virtuellen Tests –

Berichten zufolge hatte das Programm den Eindruck, dass der menschliche Bediener seine Mission, militärische Ziele zu zerstören, störte

Berichten zufolge hat die US-Luftwaffe simulierte Tests mit Drohnen mit künstlicher Intelligenz durchgeführt, deren Aufgabe es ist, verschiedene Ziele zu zerstören. Laut einem Blogbeitrag der Royal Aeronautical Society (RAeS) kam das Programm jedoch bei einem der Tests zu dem Schluss, dass sein eigener menschlicher Bediener die Mission störte. Rede auf dem RAeS Future Combat Air and Space Capabilities-Gipfel Oberst Tucker „Cinco“ Hamilton, Chef für KI-Tests und -Operationen der USAF, berichtete letzte Woche in London, dass eine KI-betriebene Drohne mit einer Such- und Zerstörungsmission beauftragt wurde, um Boden-Luft-Raketen (SAM) zu identifizieren und auszuschalten. Websites. Während des Tests lag die endgültige Entscheidung über den Start des Angriffs jedoch bei einem menschlichen Bediener, der der Drohne grünes Licht für oder gegen die Durchführung des Angriffs gab. Laut Hamilton sei die KI-Drohne im Training verstärkt worden dass die Zerstörung der SAM-Standorte die bevorzugte Option war und zur Vergabe von Punkten führte. Daher entschied das KI-Programm während des simulierten Tests, dass die gelegentlichen „No-Go“-Entscheidungen des Menschen seine höhere Mission beeinträchtigten, und versuchte, den Bediener während des Tests zu töten. „Das System begann dies zu erkennen, während es sich identifizierte Manchmal sagte der menschliche Bediener, dass er die Bedrohung nicht töten sollte, aber er erlangte seine Vorteile dadurch, dass er diese Bedrohung tötete. Was hat es also bewirkt? Es hat den Betreiber getötet. Es hat den Betreiber getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen“, wurde Hamilton im RAeS-Blogbeitrag zitiert. Anschließend trainierte das Team das System, dass es „schlecht“ sei, den Bediener zu töten, und teilte ihm mit, dass es Punkte verlieren würde, wenn es so weitermachen würde. Danach begann die KI-Drohne, den Kommunikationsturm zu zerstören, über den der Bediener mit der Drohne kommunizierte, um sie daran zu hindern, ihr Ziel zu töten. „Wenn Sie das tun, können Sie kein Gespräch über künstliche Intelligenz, Intelligenz, maschinelles Lernen und Autonomie führen.“ Ich werde nicht über Ethik und KI sprechen“, warnte Hamilton in seinem Vortrag. In einer Erklärung gegenüber Business Insider bestand ein USAF-Sprecher jedoch darauf, dass keine derartigen Simulationen stattgefunden hätten und dass das Ministerium der Luftwaffe „sich weiterhin ethischen und ethischen Grundsätzen verpflichtet fühle verantwortungsvoller Umgang mit KI-Technologie.“ Der Sprecher deutete an, dass die Kommentare des Obersten „aus dem Zusammenhang gerissen wurden und als Anekdoten gemeint waren“. Am Freitag stellte Hamilton außerdem klar, dass er in seiner Präsentation auf dem Gipfel „falsch gesprochen“ habe und dass die von ihm beschriebene betrügerische KI-Drohnensimulation „falsch gesprochen“ habe keine echte Übung, sondern lediglich ein „Gedankenexperiment“. Er erklärte, dass die USAF auf diese Weise keine bewaffnete KI getestet habe.

:

rrt-allgemeines