Wenn Roboter wie Menschen sehen

Ein Zürcher Spin-off hat einen Sensor entwickelt, der Kameras ähnlich funktionieren lässt wie das menschliche Auge. Das könnte ein Problem lösen, an dem zuvor Google gescheitert ist.

So funktioniert der Silicon Eye Sensor. Video: PD

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Kameras machen schöne Bilder. Die Technik ist da weit fortgeschritten, längst machen auch Smartphones anschauliche Aufnahmen. Kameras sind aber auch die Augen der Roboter. Und hier gibt es noch grosses Entwicklungspotenzial. Kein Roboter kann sich heutzutage visuell so zurechtfinden, wie wir Menschen es dank unseren Augen können.

«Grund dafür ist vor allem die mangelnde Effizienz. Konventionelle Kameras erheben grosse Datenmengen, und es erfordert viel Rechenleistung, um diese auszuwerten», erklärt Christian Brändli, Mitgründer der Zürcher Firma Insightness. Sie wurde 2014 als Spin-off des Instituts für Neuroinformatik (INI) – eines gemeinsamen Instituts der Universität und der ETH Zürich – gegründet und beschäftigt derzeit fünf Mitarbeiter in einem kleinen Büro nahe dem Hauptbahnhof. Es ist das klassische Start-up- Büro: Monitore, Flipcharts, Kabelsalate und eine kleine Küche. Brändli setzt zu detaillierteren Erklärungen an und veranschaulicht im Experiment: Eine Scheibe mit einem am Rand aufgemalten Punkt dreht vor sich hin, eine Kamera ist darauf gerichtet. «Ziel ist es, dass die Kamera stets die Position des im Kreis drehenden Punktes wiedergibt», erklärt Brändli. Das Experiment steht für visuelle Orientierung. Kameras müssen fähig sein, die Positionen von Objekten ständig in Echtzeit zu erfassen.

Am Monitor sieht man nun zuerst die konventionelle Lösung. Während der Punkt vor sich hin dreht, macht die herkömmliche Kamera 30 Bilder pro Sekunde und sendet die Bildserie laufend an den Computer. Dort geht ein Erkennungsalgorithmus, welcher den Punkt lokalisiert, über jedes einzelne Bild. «Das funktioniert zwar, ist aber relativ umständlich», lautet das Fazit von Brändli. Weil stets das ganze Bild aufgenommen werde, obschon nur die Position des Punktes von Interesse sei, würden Unmengen redundanter Daten erzeugt. Und alle müssen sie den Erkennungsalgorithmus durchlaufen. Das kostet Zeit und Energie. «Müssten wir Menschen uns so orientieren, könnte bereits ein Auto, das im Schritttempo auf uns zufährt, eine ernste Bedrohung sein», so Brändli.

Redundanzen vermeiden

Das menschliche Sehen zeichnet sich unter anderem dadurch aus, die Datenmenge auf das zu beschränken, was relevant ist. Dazu findet bereits in der Netzhaut eine Selektion statt. Christian Brändli bemüht noch einmal sein Beispiel, um den Sachverhalt verständlich zu machen: «Nur das auf uns zufahrende Auto ist wichtig, während die Strasse als statischer Hintergrund völlig irrelevant ist und folglich kaum mehr erhoben wird.» Das Hirn ist bestrebt, jegliche unnötige Datenakkumulation zu vermeiden und nur jene Informationen zu verarbeiten, die keinen Aufschub dulden. So wird auch die Erkennung des Objekts zunächst vernachlässigt. «Es interessiert nicht, was da auf uns zufährt, sondern wo es ist.» Laut der in der Neuroforschung anerkannten 2-Pfad-Hypothese verläuft visuelle Information im Hirn daher über zwei unterschiedliche Wege. Über den ventralen Hirnpfad geht die Information, die zur Erkennung eines Objekts gebraucht wird. Dagegen geht die Information zur Lokalisierung über den schnelleren, dorsalen Pfad.

Unter anderem dank dieser Unterscheidung kann ein Mensch schnell genug auf seine Umgebung reagieren. Der am INI entwickelte Silicon Eye Sensor imitiert zusammen mit den Algorithmen von Insightness den dorsalen Pfad. Damit werden Kameras zumindest ansatzweise so funktionsfähig wie das menschliche Auge.

Brändli lässt die Scheibe wieder drehen. Der Monitor zeigt nun, was die Kamera mit dem Silicon Eye Sensor aufnimmt: keine Serie von Bildern mehr, sondern die ständige Wiedergabe des Punktes, der zeitlich hochaufgelöst eine Spirale zeichnet. Der statische Rest des Bildes wird gar nicht erst erfasst. Der Sensor funktioniert so, dass jedes einzelne Pixel Änderungen in seinem Erfassungsbereich selbstständig registriert. Das passiert also nicht erst durch algorithmisches Abfragen im Prozessor. Entsprechend fallen Redundanzen weg, und die zeitliche Auflösung ist maximal.

Die Silicon-Eye-Methode (TA-Grafik). Für Grossansicht anklicken.

Der Lohn heisst Effizienz. Das erscheint zunächst wie ein schöner Nebeneffekt, ist aber weit mehr. Schnelle Bewegungen können besser registriert, Objekte besser verfolgt werden. «Damit liefern wir das, was es für das VPS braucht.» Die Abkürzung mag zunächst fremd tönen, sie hat aber einen bekannten grossen Bruder: GPS, das Global Positioning System, mit welchem inzwischen praktisch jedes mobile Gerät navigiert. «VPS» steht für «Visual Positioning System» und bezeichnet die Idee, wonach mobile Geräte nicht mehr nur Satellitengestützt navigieren, sondern auch selber ihre Umgebung wahrnehmen. Es ist als stark präzisierende Ergänzung zum GPS zu verstehen und gilt als wichtiger Fortschritt für die autonome Fortbewegung von Robotern.

Bereits wurde der Silicon Eye Sensor in der Drohnenforschung eingesetzt. Die kleinen Flugobjekte werden derzeit für unterschiedliche Einsatzbereiche entdeckt. So will etwa die Schweizer Post in Zukunft Pakete über den autonomen Luftweg ausliefern. Dazu müssen die Drohnen fähig sein, sich sicher im öffentlichen Raum zu bewegen. Vor allem müssen sie Objekten ausweichen können. Das GPS-Signal allein reicht dazu nicht, denn es kann jederzeit verloren gehen. Ausserdem wird es die Drohne nicht davor bewahren, etwa in einen Vogelschwarm zu steuern.

Erweiterung der Realität

Der Silicon Eye Sensor könnte aber auch das bislang fehlende Puzzleteil für andere moderne Anwendungen sein. «Augmented Reality», also die erweiterte Realität, ist eine davon. Dabei trägt der Betrachter eine intelligente Brille, welche die Umgebung in Echtzeit erfasst und virtuelle Objekte wie Beschriftungen oder Zusatzinformationen einblendet. Das dürfte in vielen Branchen dereinst grossen Anklang finden, zum Beispiel im Operationssaal oder in der Luftfahrt. Der Internetriese Google versuchte sich bereits an einer intelligenten Brille, landete aber vorerst mit der 2014 lancierten Google Glass einen Misserfolg. Grund dafür waren vor allem die mangelnde soziale Akzeptanz und dass die Brille keinen deutlichen Mehrwert gegenüber einem Smartphone brachte. Der Effekt der erweiterten Realität gelang nicht, stattdessen wurden Informationen lediglich statisch ins Blickfeld projiziert. «Google fand keinen Weg, die notwendigen Algorithmen so effizient zu gestalten, dass der zugehörige Prozessor auch noch auf eine Brille gepasst hätte und nicht gleich innert Minuten den gesamten Akku verbraucht hätte», erklärt Brändli.

Der Sensor von Insightness steht nun in den Startlöchern, um genau dieses Problem zu lösen. Es erstaunt also nicht, wenn die Gründer von der Erschliessung eines Milliardenmarkts reden. Doch wer garantiert, dass Giganten wie Google oder Samsung die Technik inzwischen nicht auch in der Pipeline haben? «Natürlich sind wir nicht die Einzigen, die die ­visuelle Positionierung verbessern wollen», räumt Brändli ein. Gegenwärtig würden oft neue, effizientere Algorithmen oder leistungsfähigere Computerprozessoren entwickelt. «Wir haben aber einen Vorteil, weil wir die Optimierung am frühestmöglichen Punkt angehen, nämlich bei der Datenerfassung selbst.» Und dieser Ansatz sei mit einem weltweit geltenden Patent geschützt. Nebst Unterstützung von der Gebert-Rüf-Stiftung darf Insightness nun auch auf den Bund zählen. Im Rahmen eines Forschungsprojekts der Kommission für Technik und Innovation (KTI) wird er sich mit einem nennenswerten Betrag beteiligen.

(Tages-Anzeiger)

(Erstellt: 03.01.2016, 23:31 Uhr)

Das menschliche Auge als Vorbild für die Kamera: Makroaufnahme einer Iris. Foto: Keystone

Artikel zum Thema

Schweizer Kamera fliegt zum Mars

Eine von der Uni Bern entwickelte Kamera wird in Zukunft hochauflösende Stereobilder vom Mars senden. Sie fliegt mit einer ESA-Raumsonde zum Roten Planeten. Mehr...

Die Masse am Drücker

Analyse Der Siegeszug der Camera-Phones definiert nicht nur die Art und Weise, wie wir fotografieren, völlig neu. Er bedroht vielmehr die Kamera-Industrie in ihrer Existenz. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Weiterbildung

Trainieren oder verlieren

Mit Gedächtnistrainings die Lernfähigkeit verbessern.

Die Welt in Bildern

Wenn der Säbel juckt: Als Wikinger verkleidet kämpfen australische Teilnehmer des St. Ives-Mittelalter-Festival in Sydney gegeneinander. (24. September 2016)
(Bild: Dan Himbrechts) Mehr...