Das Auto weiss, wer sterben muss

Selbstfahrende Autos sollten nicht klüger sein als Menschen.

Moralisch dem Menschen überlegen? Im Zweifelsfall muss das selbstfahrende Auto die Katze überfahren, wenn es bei einem Ausweichmanöver riskieren würde, einen Menschen gefährlich zu verletzen.

Moralisch dem Menschen überlegen? Im Zweifelsfall muss das selbstfahrende Auto die Katze überfahren, wenn es bei einem Ausweichmanöver riskieren würde, einen Menschen gefährlich zu verletzen. Bild: Benoit Tessier/Reuters

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Eigentlich war es ein Unfall, wie er in der Schweiz tagtäglich passiert. Ein Auto touchiert ein anderes. Kleiner Blechschaden, keine grosse Sache. Doch es war nicht irgendein Auto, das da am 21. September 2016 in die offene Heckklappe eines stehenden Lieferwagens rollte. Es war das selbstfahrende Postauto, unterwegs auf seiner Testroute durch Sitten.

Der Vorfall wirft Fragen auf: Wer ist schuld an einem solchen Unfall? Die Post? Das Auto selber? Der Autobauer? Der Softwarehersteller? Oder die Person, die das autonome «Poschi» begleitet hat? Und wer trägt die Verantwortung? Es gibt Experten, die meinen, früher oder später werde die Verantwortung an das Auto übergehen. Mit Verantwortung sind zwei Pflichten verbunden: erstens, dafür zu sorgen, dass kein Schaden entsteht, und zweitens, die Konsequenzen seiner Handlungen zu tragen. Während ein Fahrzeug die erste Komponente der Verantwortung durchaus übernehmen kann, wird es kaum eine Möglichkeit geben, dass es für sein Handeln geradesteht.

In zehn Jahren fährt das Auto uns

Vor einem Jahr ist die Sache glimpflich verlaufen; noch ist das Tempo des Postautos so niedrig, dass kaum mit tödlichen Personenunfällen gerechnet werden muss. Aber das kann sich schon bald ändern. Wenn man Bosch, einem der führenden Unternehmen in Sachen selbstfahrende Autos, glaubt, dann sind in weniger als zehn Jahren die ersten führerlosen Wagen auf unseren Strassen unterwegs. Auch unabhängige Experten wie der ETH-Professor Emilio Frazzoli meinen, dass unsere Autos uns schon bald autonom von A nach B bringen werden. Spätestens wenn Autos mit 80 Kilometern die Stunde ohne Fahrer über die Strassen rauschen, müssen wir uns mit einer weiteren Frage befassen: Wie soll das Auto reagieren, wenn ein Unfall nicht mehr zu vermeiden ist?

Die Ethik kennt in dem Zusammenhang das Trolley-Problem: Ein Zug rast fünf Gleisarbeitern entgegen, die so in ihre Arbeit vertieft sind, dass sie den Zug nicht bemerken. Als Beobachter haben Sie die Möglichkeit, eine Weiche zu stellen, die den Zug auf ein Nebengleis leitet. Auf diesem Gleis steht ebenfalls ein Arbeiter. Aber eben nur einer. Was tun Sie?

Ein menschlicher Fahrer ist viel zu «dumm», um in der Schrecksekunde vor dem Aufprall einen moralisch bewussten Entscheid zu fällen.

Vor so einer Entscheidung könnten dereinst die autonomen Fahrzeuge stehen. Sollen sie den Kindern ausweichen, die unvermittelt auf der Strasse stehen, und dabei den Opa auf dem Trottoir überfahren? Und wie sieht es aus, wenn beim Ausweichmanöver statt eines Unbeteiligten der Passagier im Auto ums Leben kommen würde? Oder wenn statt mehrerer Kinder nur ein Kind auf die Strasse spränge? Soll dann das Auto immer noch ausweichen? Solche Dilemmata sind kaum zu lösen.

Nur wenig scheint klar zu sein. Erstens: Das Auto muss mit allen Mitteln versuchen, einen Unfall zu vermeiden. Zweitens: Ein Menschenleben hat immer Vorrang gegenüber Sach- und Tierschaden. Im Zweifelsfall muss das Auto also die Katze oder den Hund überfahren, wenn es bei einem Ausweichmanöver riskieren würde, einen Menschen gefährlich zu verletzen. Und drittens: Ein Menschenleben ist gleich viel Wert wie das andere. Es wäre äusserst heikel, wenn die Autobauer ihren Fahrzeugen einprogrammieren würden, dass sie gewisse Leben anderen vorziehen sollen.

Reaktion der Dummen: Vollbremsung

Man könnte ausserdem argumentieren, dass es besser sei, ein Leben zu opfern, wenn dafür mehrere Leben gerettet werden können. In der Theorie naheliegend. Aber in der Praxis? Mal ehrlich: Würden Sie in ein Auto steigen, von dem Sie wissen, dass es im schlimmsten Fall mit Ihnen gegen einen Baum rasen wird, um eine Gruppe unaufmerksamer Fussgänger zu retten?

Der Akzeptanz von autonomen Fahrzeugen dürfte es dienen, wenn die Autos möglichst menschlich – aber bedeutend rascher – entschieden. Mit anderen Worten: Das Auto wird nur so klug wie nötig und so dumm wie möglich gebaut.

Denn ein menschlicher Fahrer ist viel zu «dumm», um in der Schrecksekunde vor dem Aufprall einen moralisch bewussten Entscheid zu fällen. Die programmierte Reaktion des Autos auf einen unvermeidlichen Unfall wäre dann wohl: Vollbremsung.

Erstellt: 18.09.2017, 18:08 Uhr

Artikel zum Thema

Was, wenn selbstfahrende Autos töten?

Analyse Das Google-Mobil zeigt: Maschinen sind fehlbar. Doch wer ist daran schuld? Mehr...

Auto fahren ohne Billett

SonntagsZeitung Laut Bundesamt für Strassen braucht es bei selbstfahrenden Wagen keine Fahrprüfung mehr. Mehr...

Selbstfahrende Postautos nach Unfall wieder unterwegs

Mit erhöhten Sicherheitsvorkehrungen kehrt der fahrerlose Shuttle in Sitten auf die Strasse zurück. Zudem wurden die Begleiter intensiv nachgeschult. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Kommentare

Weiterbildung

Lohncheck in Pflegeberufen

Qualifiziertes Pflegepersonal ist rar. Eine Pflegeinitiative setzt sich darum für höhere Löhne ein.

Die Welt in Bildern

Russische Torte: Indische Konditoren legen letzte Hand an eine essbare Kopie der Moskauer Basilius-Kathedrale, die sie für die 45. Kuchenausstellung geschaffen. (12. Dezember 2019)
(Bild: Jagadeesh NV) Mehr...