Zum Hauptinhalt springen

«Roboter werden Menschen töten»

«Ich liebe den Film-Terminator, aber ich will niemals einen bauen», sagt Ronald C. Arkin. Foto: Raisa Durandi

Sie plädieren dafür, Kampfroboter im Krieg zuzulassen. Wer wäre in diesem Fall für das Töten verantwortlich?

Und was ist, wenn der Roboter ein selbstlernendes System ist, also über künstliche Intelligenz (KI) verfügt?

Kann man Siri in meinem iPhone auch als Roboter bezeichnen?

Genau das hätte ich vorgehabt. Sagen Sie mir, warum denn nicht.

Sprechen wir von Ethik. Sie wollen Killerrobotern Moral beibringen. Wie designt man ethische Grundsätze für Roboter?

Aber kriegerische Kampfhandlungen führen ja zu hochkomplexen Situationen. Ist es machbar, mögliche Reaktionen auf alle denkbaren Situation zu programmieren?

«Alle denken, dass wir Roboter designen, die selber Ziele finden und angreifen, aber eigentlich ist das Gegenteil der Fall: Wir gehen aus von Robotern, die jemand anders dazu gebaut hat, um Ziele anzugreifen.»

Allerdings gibt es im Krieg ja immer sich widersprechende Verpflichtungen. Was, wenn ein feindlicher Kämpfer in eine Schule flüchtet?

Und wie kann der Roboter unterscheiden zwischen Zivilisten und Kämpfern?

Dieses eingebaute Gewissen ist dann auch eine Software?

Wie gross ist das Interesse an künstlich intelligenten Robotern für militärische Zwecke?

Wie können sich Experten der Risiken nicht bewusst sein, wenn sich die Science-Fiction-Literatur seit Jahren Schreckensszenarien ausmalt?

Warum soll jemand, der einen Killerroboter nutzen will, sich für ethische Regeln interessieren?

«Diese Systeme werden Zivilisten töten, egal, wie viel Intelligenz wir ihnen einbauen. Sie werden Fehler machen, aber das Ziel ist, sie besser performen zu lassen als menschliche Krieger.»

Weil ein Roboter das eben nicht unterscheiden kann und ihm das «menschliche Ermessen» fehlt?

Sie glauben also, Killerroboter könnten die Kriegsführung menschlicher machen?

Weil einem eine stupide Arbeit abgenommen wird?

Glauben Sie daran, dass man das regulieren kann?

Wie weit ist man mit der Entwicklung dieser Kampfroboter oder eben LAWS?

Weil Kampfroboter eben weniger ­Kollateralschäden verursachen – oder weil sie ohnehin entwickelt werden und man sie so wenigstens regulieren kann?

Man kann nicht unbedingt behaupten, dass ein Soldat, der eine Drohne per Joystick ­bedient, auf dem Schlachtfeld präsent ist. Emotional ist es sicher einfacher, so zu töten.