Verwirrung um KI-Test: Killerdrohne soll plötzlich Vorgesetzten attackiert haben – alles nur ein Missverständnis?
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/GMJ2PUTNS5DEVPIM4VNMH7VPJY.jpeg)
US-amerikanische MQ‑9-Drohne: Als die Befehlshaber der KI den Abschussbefehl verweigerten, begann der Computer, seine Vorgesetzten zu töten – rein virtuell. Ein KI‑Experte der Luftwaffe in den USA dementierte, dass es eine Simulation gegeben habe, und sprach von einem „Gedankenexperiment“.
© Quelle: Massoud Hossaini/MH/AP/dpa
Gefälschte Fotos von Midjourney, erfundene Gerichtsakten von ChatGPT: Die Möglichkeiten und Gefahren, die von künstlicher Intelligenz (KI) ausgehen, sind derzeit kontroverser Gesprächsstoff. Nun sorgt ein Fall aus den USA für Aufregung. Laut einem Bericht hat die Luftwaffe in den USA in einer Simulation Drohnen per KI steuern lassen. Dabei habe der Computer sich allerdings gegen die menschlichen Vorgesetzten gewandt. Indessen schaltet sich ein Oberst ein und sagt, er sei missverstanden worden. Es habe sich nur um ein „Gedankenexperiment“ gehandelt.
„Hypothetisches Gedankenexperiment“
Wie mehrere Medien berichten, hatte der Leiter der KI‑Abteilung bei der US‑Luftwaffe, Tucker Hamilton, bei einer Veranstaltung der Luft- und Raumfahrtgesellschaft Royal Aeronautical Society (RAS) über eine angebliche Simulation berichtet, in der eine KI Drohnen befehligen sollte. Die KI habe begonnen, ihre Befehlshaber „virtuell“ zu töten. Der Blogbeitrag der RAS wurde nachträglich ergänzt, als die US‑Luftwaffe und Hamilton dementierten.
Demnach soll es doch keine reale Simulation gegeben haben, wie Hamilton sagt. Er habe lediglich ein „hypothetisches Gedankenexperiment“ geschildert, das habe er bei dem Vortrag „missverständlich ausgedrückt“. Eine Sprecherin der Air Force sagte, der Bericht sei rein „anekdotisch“ gewesen.
Eine „sehr unerwartete Strategie“
Dass die KI gegen ihre eigenen Befehlshaber vorging, nannte Hamilton eine „sehr unerwartete Strategie“. Eigentlich habe die KI den Befehl erhalten, gegnerische Luftabwehrraketen zu zerstören. Jeder Abschuss muss freigegeben werden, auch in diesem Fall gab ein Mensch der KI grünes Licht – oder eben keinen Feuerbefehl. Für das „Töten der Bedrohung“ – in diesem Fall den Abschuss der Luftabwehrraketen – bekam die KI Punkte. Wenn ein Mensch der KI verbot, zu schießen, tötete die KI den Befehlshaber. Hamilton: „Es tötet den Befehlshaber, weil er es vom Erfüllen der Ziele abhält.“ Zwar hätten die Verantwortlichen dem System beigebracht, dass das Töten der Vorgesetzten schlecht sei, so Hamilton. Daraufhin habe die KI aber begonnen, den Funkturm zu zerstören, mit dem der Vorgesetzte der Drohne die Anweisung gibt, nicht zu feuern.
Künstliche Intelligenz: Wie schlimm wird's wirklich?
Wird über künstliche Intelligenz gesprochen, hört man die schlimmsten Horrorszenarien. Was ist da eigentlich wirklich dran?
© Quelle: RND
Ob Simulation oder Gedankenexperiment – Hamiltons Fazit: „Man kann nicht über Dinge wie künstliche Intelligenz, Maschinenverständnis und ‑autonomie reden, wenn man nicht bereit ist, auch über künstliche Intelligenz und Ethik zu reden.“
RND/dad