«Ein Mensch hätte diesen Unfall nicht gebaut»

Der tödliche Tesla-Unfall offenbart laut dem Experten Oliver Bendel den Schwachpunkt des autonomen Autos. Das Sensorsystem war bei der unvorhersehbaren Situation überfordert.

Bei einem Kundenanlass in Palo Alto zeigt Tesla die Radartechnologie des Modells S.

Bei einem Kundenanlass in Palo Alto zeigt Tesla die Radartechnologie des Modells S. Bild: Beck Diefenbach/Reuters

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Kam der Unfall mit dem Tesla für Sie überraschend?
Nein, er war zu erwarten.

Wieso?
Der Hergang zeigt einen Schwachpunkt, den das automatische Auto hat, nämlich die Kamera. Sie kann sich jederzeit täuschen, und man kann sie jederzeit täuschen. Die Kamera ist nur ein gutes Instrument im Zusammenspiel mit anderen Sensoren.

Hat das autonome System versagt?
Die vorliegende Situation war sehr speziell und schwer vorauszusehen. Es kam ja dieser Sattelzug auf die Autobahn und stand dann senkrecht zum Tesla. Der Sattelzug war sehr hoch und hatte eine helle, weisse Fläche. Das heisst, dass das Auto von unten auf den Sattelzug blickte und nicht erkannte, dass die Fläche des Sattelzugs und der Himmel etwas anderes sind.

Also hat die Kamera versagt?
Natürlich hat der Tesla auch andere Sensoren, zum Beispiel ein Ultrasonic-System und ein Radar. Aber sie haben sich in diesem Fall offenbar nicht durchgesetzt. Denn eigentlich müsste das System eine Abstimmung machen, in der die Mehrheit der Sensoren der Kamera sagt: «Ich sehe doch etwas, auch wenn du nichts gesehen hast!«

Kann man dies nicht einprogrammieren?
Doch. Aber das ist natürlich nicht trivial. Wenn der Hauptsensor, in diesem Falle die Kamera, einfach nichts sieht, dann gibt er halt erst mal die Bahn frei. Aber eigentlich müssten andere Sensoren permanent in die entsprechende Richtung schiessen, um solche Gefahren voraussehen zu können.

Hätte ein Mensch diesen Unfall nicht gebaut?
Dieser Unfall hätte von einem menschlichen Fahrer absolut vermieden werden können, sofern es nicht zu schnell gegangen ist, was ich aber nicht beurteilen kann. Grundsätzlich hat der Mensch kein Problem damit, eine sehr helle Fläche vom Himmel zu unterscheiden.

Wie sind denn die Systeme aufgebaut, die autonome Autos vor Unfällen schützen sollen?
Man kennt zwei Ansätze: Entweder man modelliert unzählige Situationen in einer starren Programmierung. Das Problem dabei ist, dass man wirklich viele Situationen voraussehen muss – und selbst dann sind sie in der Realität immer anders als in der Vorstellung.

Und die zweite Möglichkeit?
Das wären selbstlernende Systeme. In diesem Falle hätte das Auto schon sehr viele LKW und Sattelzüge angeschaut und erkennen können, dass es auch sehr helle Lastwagenfronten gibt. Von selbstlernenden Systemen im Strassenverkehr raten aber derzeit nicht nur Experten aus dem Bereich der künstlichen Intelligenz und Maschinenethiker ab, sondern auch die Vertreter der Autoindustrie selbst.

Wieso?
Man handelt sich damit viele andere Probleme ein. Dabei denke ich nicht nur an technische oder ethische Fragen. Das Hauptproblem ist der Input, den man selbstlernenden Systemen gibt. Der kann ja auch falsch sein. Was ist, wenn das Auto sich am bestehenden Verkehr orientiert, zum Beispiel am Verhalten eines Maserati-Fahrers? Nichts gegen Maserati-Fahrer, aber vielleicht ist dann nicht das vorhanden, was man für eine sichere Fahrweise will. Man braucht deshalb immer einen «Fahrlehrer», der das Auto korrigiert, oder Metaregeln, die das Verhalten des Autos deckeln. Das ist zu aufwendig.

Gibt es denn schon Versuche mit solchen Systemen?
Das selbstlernende System wäre technisch eigentlich schon die richtige Lösung, aber da braucht es noch 10 bis 20 Jahre mehr Forschung, um die Probleme in den Griff zu bekommen. Ein Beispiel: Vor kurzem hat Microsoft ein selbstlernendes System, einen Bot namens Tay, in die Welt entlassen. Am Ende das Tages war Tay ein Rassist.

Sollte man autonome Autos deshalb wieder von der Strasse verbannen?
Die Automobilindustrie geht meines Erachtens zu schnell vor. Im Moment läuft halt ein harter Herstellerwettbewerb zwischen Tesla und der klassischen Automobilindustrie, der das Ganze zu sehr voranpeitscht. Ich würde das Tempo etwas drosseln, um noch mehr Erfahrungen zu sammeln.

Wo besteht denn noch Entwicklungsbedarf?
Zuerst einmal brauchen wir viel, viel mehr Experimente. Tesla verweist auf die Millionen Kilometer, die schon unfallfrei gefahren worden seien. Aber das ist zu wenig, denn im konventionellen Verkehr wurden Billionen Kilometer gefahren. Wir müssten unzählige gefährliche Situationen systematisch auf Teststrecken durchspielen und das Auto entsprechend reagieren lassen. So was kann man nicht im offenen Verkehr machen.

Was braucht es noch?
Man muss ein Maximum an Sensoren verarbeiten, mindestens drei bis vier Systeme, am besten noch mehr. Das wäre natürlich sehr teuer. Deshalb benutzen heute alle vor allem Kameras. Aber Kamerasysteme waren schon immer die erste Wahl. Schon ein frühes automatisches Auto von Daimler aus den 1990er-Jahren funktionierte mit Kameras. Aber diese sind problematisch, weil sie sich täuschen lassen. Sie können dem Auto alles Mögliche vorspielen.

Womit müssen die Kameras ergänzt werden?
Nötig sind Radar-, Lidar- und Ultrasonic-Systeme, Infrarotsysteme und andere. Und vor allem müssen diese Systeme auch klug aufeinander abgestimmt sein, damit das Auto schlussendlich in jeder Situation eine richtige Entscheidung trifft.

Haben Sie persönlich schon ein automatisiertes oder autonomes Auto gefahren?
Ich habe den Tesla vor einigen Monaten mit Autopilot auf einer Autobahn in der Nähe von Bern gefahren und das sehr genossen. Der Wagen hat erst mal den Verkehr beobachtet, und als eine Lücke kam, hat er selbstständig die Spur gewechselt. Das macht er sehr weich und sehr flüssig, es war faszinierend.

Sie sind also nicht gegen diese Art von Mobilität?
Im Gegenteil. Ich halte viel von diesen Autos. Für europäische Autobahnen sind sie sogar fantastisch, auch weil wir hier keine Kreuzungen haben, sondern der Verkehr sich langsam einfädelt. Damit kommen die automatischen und autonomen Autos schon sehr gut zurecht. Dann kann man sich während der Fahrt auch Videos reinziehen. Der LKW-Fahrer hat ja behauptet, dass der Tesla-Passagier einen «Harry Potter»-Film angeschaut habe. Das Unternehmen sagt zwar, das sei technisch nicht möglich, was ich aber bezweifle, denn eigentlich kann man jeden Monitor manipulieren. ()

Erstellt: 01.07.2016, 16:01 Uhr

Artikel zum Thema

Tesla-Fahrer stirbt bei Unfall mit Autopilot

Video In Florida kam es zu einer Kollision zwischen einem Sattelzug und einem selbstfahrenden Auto. Weder der Fahrer noch der Autopilot des Tesla-Sportwagens sahen das Unglück kommen. Mehr...

Tesla elektrisiert

#12 Tesla geniesst Kultstatus. Doch der Hersteller von E-Autos schreibt auch hohe Verluste. Nun setzt er zum grossen Wachstumssprung an. Mehr...

Was, wenn selbstfahrende Autos töten?

Analyse Das Google-Mobil zeigt: Maschinen sind fehlbar. Doch wer ist daran schuld? Mehr...

Oliver Bendel


Der Wirtschaftsinformatiker und Philosoph ist Professor an der Fachhochschule Nordwestschweiz und hat sich intensiv mit autonomen Systemen und deren Folgen befasst.

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Sponsored

Ein Hauch Kalifornien in der Westschweiz

Lausanne wird immer wieder mit San Francisco verglichen. Was daran stimmt, sagt Yves Béhar, Designer des 100-Dollar-Laptops.

Kommentare