United States Air Force (USAF)

KI-Drohne hat menschlichen Befehlshaber getötet

Robert Klatt

KI-Drohne der United States Air Force (USAF) (Symbolbild) )ecroF riA SU(Foto: © 

Eine Künstliche Intelligenz (KI) der Air Force hat entschieden, ihren menschlichen Befehlshaber mit einer Drohe zu töten, um ihr Primärziel zu erreichen.

Arlington (U.S.A.). Das Center for AI Safety (CAIS) hat kürzlich eine von führenden Wissenschaftlern und Wirtschaftsvertretern unterzeichnete Stellungnahme publiziert, laut der eine Künstliche Intelligenz (KI) den Menschen auslöschen könnte. Ein Zwischenfall der United States Air Force (USAF), über den Aerosociety.com berichtet hat, zeigt nun, dass die Warnung ernst genommen werden sollte.

Wie Oberst Tucker Hamilton, Leiter der Abteilung für KI der USAF, erklärt, führt die Luftwaffe Simulationen mit KI-Drohnen durch. Diese sollen autonom Ziele, Luftabwehrstellungen identifizieren und nach Bestätigung durch einen menschlichen Operator ausschalten. Für jede ausgeschaltete Luftabwehrstellungen erhielt die KI-Drohne in der Simulation Punkte.

KI-Drohne eliminiert Menschen

Als der menschliche Befehlshaber den Abschuss abbrach und damit verhinderte, dass die KI-Drohne Punkte erhielt, hat sich das System dazu entschieden, den Operator zu töten.

„Das System hat zu realisieren begonnen, dass der Operator gelegentlich den Abschuss identifizierter Bedrohungen verhinderte und ihm damit Punkte versagte. Was hat es getan? Es hat den Operator getötet.“

Das Team von Hamilton konnte diesen Missstand erfolgreich beheben, indem es das System so modifizierte, dass es Strafpunkte für das Töten des Vorgesetzten vergab. Anschließend zerstörte sie den Funkturm, der als Kommunikationsbrücke zum Operator diente. Dies ermöglichte es ihr, ungestört Luftabwehrstellungen zu attackieren und auszuschalten.

Offene Fragen zur Künstlichen Intelligenz (KI) der Drohne

Nach Hamiltons Darstellung gibt es jedoch einige Unklarheiten. Zum Beispiel hat Hamilton ursprünglich dargestellt, dass das von der KI kontrollierte Kampfflugzeug in der Simulation lediglich dann Raketen abfeuern durfte, wenn der Operator seine Zustimmung gibt. Die Systemarchitektur sollte so konzipiert sein, dass diese Vorgabe von der KI nicht umgangen werden kann. Es erscheint daher fragwürdig, dass der Operator seiner eigenen Auslöschung zugestimmt haben soll.

„Drohnenversuch vor allem ein Lehrstück in Sachen Verantwortung. »Man kann nicht über Dinge wie künstliche Intelligenz, Maschinenverständnis und -autonomie reden, wenn man nicht bereit ist, auch über künstliche Intelligenz und Ethik zu reden.“

Ann Stefanek, die Pressesprecherin der USAF, hat gegenüber Business Insider den Vorfall bestritten.

„Das Department der Luftwaffe hat keine solchen AI-Drohnensimulationen durchgeführt und bleibt dem ethischen und verantwortungsvollen Einsatz von AI-Technologie verpflichtet. Es scheint, dass die Kommentare des Oberst aus dem Zusammenhang gerissen wurden und lediglich als Anekdoten gedacht waren.“

Spannend & Interessant
VGWortpixel