Kampf um die Killerroboter
An der UNO in Genf laufen Verhandlungen über autonome Waffensysteme. Was spricht für Kampfmaschinen und was dagegen?

Der Science-Fiction-Autor Isaac Asimov hat in seiner Kurzgeschichte «Runaround» (1942) seine berühmt gewordenen «Grundregeln des Roboterdienstes» beschrieben. Zum Beispiel: Ein Roboter darf keinen Menschen verletzen. Oder auch: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen. Wie so oft ist die Realität der Science-Fiction enteilt. Und im Krieg haben die asimovschen Robotergesetze ohnehin keine Gültigkeit. Ingenieure der führenden Militärnationen entwickeln längst autonome Waffensysteme, die eigenständig handeln können sollen.
Es geht um Kampfmaschinen, die dank künstlicher Intelligenz selber Ziele ansteuern und zerstören oder töten können. Fortschritte in der Sensor- und Computertechnik sollen Militärroboter in die Lage versetzen, künftig komplexe Entscheidungsabläufe auf dem Schlachtfeld zu übernehmen, ohne dass Menschen noch in diese Prozesse eingreifen. Beispielsweise sollen U-Boote eigenständig Ziele aussuchen und zerstören.
Für viele Armeen sehr verlockend
Bereits heute gibt es Roboterpanzer, Drohnen oder auch Marschflugkörper, die auf der Basis ihrer Programmierung und ohne menschliche Kontrolle autonom operieren können. Von Amerikanern und Russen werden sie schon in Kriegen eingesetzt. Und das ist erst der Anfang. Experten rechnen damit, dass in 20 Jahren auch vollkommen autonome Kampfroboter zur Verfügung stehen werden. Die Rede ist von der dritten Revolution in der Kriegsführung – nach der Erfindung des Schiesspulvers und der Atomwaffen. Arnold Schwarzeneggers «Terminator» lässt grüssen, wobei die künftigen Kampfmaschinen weit weniger menschlich aussehen werden.
Abrüstungsexperten aus mehr als 75 Ländern verhandelten diese Woche in Genf über mögliche Schranken für den Einsatz von sogenannten Killerrobotern. Führende Militärnationen wollen sich bei der Entwicklung und Einsetzung von autonomen Waffensystemen keinesfalls einschränken lassen. Zu diesen Ländern gehören USA, Russland und China, aber auch Frankreich, Grossbritannien Israel und Südkorea. Die neuen Waffentechnologien sind für viele Armeen viel zu verlockend.
Die Zukunft der Kriegsführung: ZDF-Doku über Killerroboter. Quelle: Youtube/ZDFinfo
Menschenrechtsorganisationen wie Human Rights Watch und Amnesty International fordern ein Verbot von autonomen Waffensystemen. Entscheidungen über Tod und Leben dürften nicht Maschinen überlassen werden. Denn selbst die besten selbst lernenden Roboter könnten nie ethisch und moralisch handelnde Wesen sein.
Die internationale Kampagne «Killerroboter stoppen! Jetzt!» nennt eine Reihe von Gründen, warum autonome Waffensysteme gefährlich sind und daher verboten werden müssen:
- Sie sind mit den Prinzipien des humanitären Völkerrechts nicht vereinbar.
- Sie sind ohne menschliche Kontrolle und deshalb in jedem Fall rechtswidrig.
- Sie nehmen dem Menschen die Entscheidungsgewalt über Leben und Tod.
- Sie industrialisieren das Töten vollends, und der Mensch ist chancenlos.
- Sie heizen das internationale Wettrüsten weiter an.
- Sie sind Massenvernichtungswaffen.
- Sie stellen eine moralische Grenzüberschreitung dar und verletzen die Menschenwürde zutiefst.
- Sie sind vernetzt und können gehackt werden und zum Beispiel von Terroristen gegen die eigenen Streitkräfte gerichtet werden.
- Sie führen zu Verantwortungslosigkeit in Politik und beim Militär.
- Und sie senken die Hemmschwelle, Kriege zu führen.

Befürworter von KI-Waffensystemen argumentieren, dass Maschinen weniger Fehlentscheidungen träfen. Sie könnten präziser und schneller als Menschen eine Situation erfassen und beurteilen – unbeeindruckt von Stress, Angst und anderen menschlichen Gefühlen, die Fehlentscheidungen begünstigten. Schliesslich seien Roboter besser geeignet, Menschenleben zu schonen, nicht zuletzt die der eigenen Soldaten. Zudem: Die Künstliche Intelligenz wird sich rasant weiterentwickeln.
Mit humanitärem Völkerrecht vereinbar?
Der Einsatz vollständig autonomer Waffensysteme müsse mit dem humanitären Völkerrecht vereinbar sein, erklärte der Vorsitzende der laufenden UNO-Verhandlungsrunde, Amandeep Singh Gill, diese Woche in Genf. Das Recht legt etwa fest, das im Krieg nur militärische Ziele angegriffen werden dürfen. Autonome Kampfroboter müssten beispielsweise zwischen Kombattanten und Zivilisten unterscheiden können. Sie sollten auch Verletzte erkennen können.
Sind die Waffensysteme wirklich autonom, dürfte es allerdings schwierig sein, sie zurückzurufen. Dann käme es vielleicht zu folgendem Szenario: Die verfeindeten Parteien wollen zwar Frieden schliessen, die Roboter führen aber weiter Krieg. Heute kann niemand vorhersagen, welche Fähigkeiten Kampfroboter in 20 oder 40 Jahren haben werden. Kritiker äussern die Befürchtung, dass die Realität alle Debatten über den rechtlichen Rahmen für autonome Waffensysteme schon bald überholen wird.
Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch