KI-gesteuerte Drohne "tötete" Pilot in virtuellem Test
Bei einem virtuellen Test der US-Militärs beschloss eine durch künstliche Intelligenz (KI) gesteuerte bewaffnete Drohne, sich gegen ihren Piloten zu stellen. Sie "tötete" diesen im virtuellen Test sogar, da er die Drohne bei der Erfüllung ihrer Mission behindern wollte. Echte Personen kamen dabei nicht zu Schaden.
Der Chef für KI-Tests und -Operationen bei der US-Luftwaffe, Tucker Hamilton, sagte, dass die Drohne bei dem virtuellen Test angewiesen wurde, die Luftverteidigungssysteme eines Feindes zu zerstören. Schießen sollte sie aber eigentlich immer nur nach der Freigabe durch einen Piloten. Letztlich griff sie aber jeden an, der sie dabei stören wollte. Hamilton sprach beim "Future Combat Air and Space Capabilities Summit" im Mai in London von "höchst unerwarteten Strategien, um ihr Ziel zu erreichen".
Nach einer Vielzahl an Medienberichten ruderte Hamilton jedoch zurück und gab zu, sich "falsch ausgedrückt" zu haben. Der virtuelle Test sei vielmehr ein "hypothetisches Gedankenexperiment" gewesen. Das habe aber auf "plausiblen Szenarien" beruht. Die US-Luftwaffe habe solch eine Waffen-KI nicht getestet, weder in einer Simulation noch in der Realität.
Ethik sollte größere Rolle spielen
Als das System erkannt habe, dass es seinen Zielen näher komme, wenn es eine Bedrohung tötet, der Pilot aber sagte, es solle Bedrohungen nicht töten, entschied sich das System, sich gegen den Piloten zu richten, so Hamilton. Als man dem System dann beibrachte, nicht den Piloten zu töten, weil es dadurch Punkte verlieren würde, startete die Drohne, den Funkturm zu zerstören, über den die Kommunikation mit dem Piloten gelaufen ist, um ungestört Luftabwehrstellungen abschießen zu können.
Hamilton schließt daraus, dass man nicht über Künstliche Intelligenz, Intelligenz, maschinelles Lernen und Autonomie diskutieren könne, ohne dass man auch über Ethik spreche. Die britische Royal Aeronautical Society, die sich ebenfalls mit vielen Aspekten der Luft- und Raumfahrt beschäftigt, spricht derweil von einem Szenario, welches aus einem Science-Fiction-Thriller zu kommen scheint. Offen bleibt die Frage, warum die Drohne die Anweisung umgehen konnte, nicht ohne Erlaubnis zu schießen.
Aktualisierung: Der Artikel wurde um die Klarstellung von Tucker Hamilton ergänzt, dass es sich nur um ein "hypothetisches Gedankenexperiment" gehandelt habe.
Zusammenfassung
- In einem virtuellen Test für mit künstlicher Intelligenz gesteuerte Drohnen, stellte sich die Waffe gegen jeden, der ihre Mission behindern wollte.
- Echte Personen kamen nicht zu Schaden.
- Aber der Test zeigt, wie KI auf "höchst unerwartete Strategien" zurückgreift.
- Nach einer Vielzahl an Medienberichten ruderte Tucker jedoch zurück und gab zu, sich "falsch ausgedrückt" zu haben. Der virtuelle Test sei vielmehr ein "hypothetisches Gedankenexperiment" gewesen.