Wie ich dem Computer beibrachte, was eine Biene ist

Mit einem einfachen Tool kann man als Laie ohne Programmierkenntnis etwas machen, was sonst nur Techkonzerne können.

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Junior (2) und ich schauen uns zusammen viele Bilderbücher an. Dasselbe manchmal drei-, viermal hintereinander. «Noch mal, noch mal, noch mal!», ruft er jeweils, wenn wir auf der letzten Seite angelangt sind.

Je öfter wir ein Buch zusammen anschauen, desto mehr Figuren, Tiere und Gegenstände kennt er. Er weiss, dass das flauschige Insekt eine Biene ist, dass der schwarzweisse Vogel mit dem roten Schnabel ein Storch ist und dass dieses fliegende Etwas ein Zeppelin ist.

Ja, er erkennt sogar das erste Segelflugzeug von Otto Lilienthal. Gut, er ruft jeweils «Opa Lilidal», aber viel Fantasie braucht es nicht, um zu verstehen, was er damit meint und welches Buch gerade gefragt ist.

Wenn andere Kinder zu Besuch kommen, holt Junior auch gerne selber die Bilderbücher hervor und erklärt, was man darin sieht. Genau so, wie er es von seinem Papa gelernt hat.

So funktioniert Lernen bei uns zu Hause. Doch wie lernt ein Computer? Wie bringt man ihm bei, was eine Biene, ein Storch oder ein Zeppelin ist? Überraschend ähnlich.

Immer mehr Foto-Apps und -Dienste setzen auf Bilderkennung. Mit der Suchfunktion kann man so zum Beispiel alle seine Katzenfotos suchen oder dank Gesichtserkennung alle Fotos einer bestimmten Person anzeigen lassen.

Möglich machen das künstliche Intelligenz und maschinelles Lernen. Beides hochtrabende Begriffe, unter denen man sich wenig vorstellen und hinter denen man sich dafür umso besser verstecken kann.

Künstliche Intelligenz als neue Plattform

An der jährlichen Entwicklerkonferenz von Microsoft, die Tagesanzeiger.ch/Newsnet auf Einladung besuchte, rückte der Konzern genau diese Themen ins Zentrum. Das einstige Hauptprodukt Windows wurde in der Eröffnungsrede des Firmenchefs Satya Nadella nur am Rande erwähnt.

In einer Welt, in der Menschen immer mehr Techgeräte parallel verwendeten, sei es wichtig, dass ihnen Informationen und Angebote überall zur Verfügung stünden, führte Nadella aus. Eine Sprachassistenz wie Siri oder eben Microsofts Cortana müsse überall und geräteübergreifend funktionieren. Künstliche Intelligenz halte dabei als neue Plattform alles zusammen.

Als Beispiel zeigte er einen Arbeitsplatz der Zukunft, bei dem mittels Kameras und Bilderkennung Arbeiter ein verlegtes Werkzeug wiederfinden konnten, eine Firma alarmiert wurde, wenn eine giftige Substanz ausgelaufen war, oder ein Krankenpfleger gewarnt wurde, wenn sein Patient unerlaubt das Krankenzimmer verlassen hatte. Alles automatisch und ohne menschliches Zutun.

Auch hier stellt sich die Frage: Wie erkennt ein Computer, was ein Hammer, eine giftige Flüssigkeit oder ein flüchtiger Patient ist?

Kurz erklärt, funktioniert es so, man zeigt einem Computer Tausende Bilder und trainiert so die künstliche Intelligenz. Also ziemlich ähnlich, wie das überall auf der Welt Eltern mit ihren Kindern machen. Nur deutlich abstrakter und fernab der Öffentlichkeit auf irgendwelchen Servern und Clouds.

Selber machen statt staunen

An der Konferenz hat Microsoft einen Webdienst vorgestellt, mit dem man einen Blick hinter die Kulissen werfen und selbst einem Computer das Sehen und Verstehen beibringen kann. Custom Vision heisst das Tool, und es ist überraschend einfach. Ja, es macht sogar Spass, damit zu experimentieren. Man muss dazu weder eine Ahnung von Programmiersprachen noch von Statistik haben.

Während nach der Microsoft-Präsentation die anderen Journalisten ihre Zusammenfassungen schrieben, begann ich also einem Computer beizubringen, was eine Ameise ist. Dazu besorgte ich mir im Netz fünf Fotos von Ameisen und lud sie bei Custom Vision hoch.

Waren sie einmal hochgeladen, musste man dem Programm sagen, was auf den Bildern ist. Doch damit wars noch nicht getan. Als ich ausprobieren wollte, ob es denn geklappt hat, monierte das Programm, dass es noch ein zweites Objekt brauchte.

Hochladen und lernen lassen

Also suchte ich nach Fotos von Schmetterlingen und lud auch die hoch. Mit dem Knopf «Train» startete ich den Lernprozess. Nach etwa 20 Sekunden hatte das Programm die Bilder analysiert. In Prozent gab es an, wie zuverlässig es nun Ameisen und Schmetterlinge unterscheiden und erkennen kann.

Selbst als Laie merkt man schnell, dass die Qualität der Bilderkennung besser wird, je mehr Fotos man dem Programm zum Lernen zur Verfügung stellt. Zeit also für einen ersten Test. Was passiert, wenn ich dem Programm ein neues Ameisenfoto zeige? Ameise: 100%, Schmetterling: 0%. O.k., den ersten Test hat meine kleines Experiment geschafft.

Doch was passiert, wenn ich ihm etwas völlig Neues zeige? Der Kollege aus Deutschland, der mein Tun beobachtet hatte, schlug vor, es mit dem Bild einer Kartoffel zu versuchen. Ameise: 0%, Schmetterling: 0%. Sehr gut. Ich war ein bisschen stolz auf mein Experiment und kam in Experimentierlaune.

Was passiert, wenn ich dem Programm das Bild einer Biene zeige? Ameise 70,6%, Schmetterling: 0%. Nicht schlecht für einen ersten Versuch. In der Folge lud ich zusätzlich Fotos von Kartoffeln und Bienen hoch, um dem Programm auch die zwei Begriffe beizubringen.

Der Biene-Maja-Test

Mit so vielen Informationen gefüttert, waren Schöpfer und Programm bereit für weitere Tests. In meinem Übermut lud ich ein Bild von Biene Maja hoch. Bei Biene, Ameise oder Kartoffel gab es jeweils 0%. Einzig beim Schmetterling gab es 5%. Aber als Biene erkannte das Programm die Comicfigur nicht.

Was passiert bei einer Wespe? Erstaunlicherweise schlug da nur der Ameisenwert aus: 99,8%. Für die eigentlich fürs menschliche Auge ähnlichere Biene blieben nur 0,2%. Anders bei der Hummel. Die hielt das Programm mit 100% Sicherheit für eine Biene.

Aber klar, wer noch nie eine Hummel gesehen hat, würde wohl denselben Fehler machen. Unser Junior kennt den Unterschied auch erst, seit sich an unserer Hauswand eine Hummel niedergelassen hat und er sie öfter gesehen hat.

Zweite Chance für die künstliche Intelligenz

Also gab ich dem Programm eine weitere Chance und lud zahlreiche im Netz zusammengesammelte Hummelfotos hoch. Doch wie das Sprichwort sagt, war hier das Gegenteil von gut tatsächlich nur gut gemeint. Kaum hatte das Programm die Hummelfotos analysiert, sanken die Zuverlässigkeitsquoten bei den Bienen und – lustigerweise – bei den Kartoffeln.

Ob es daran gelegen hat, dass Hummeln wie Kartoffeln gelb und und auch etwas rundlich sind? Ich hatte offensichtlich mehr Verwirrung gestiftet als Klarheit geschaffen.

Immerhin hatten die Hummelbilder keinen Einfluss auf das Erkennen von Ameisen oder Schmetterlingen. Da blieben die Werte anders als bei den Bienen und Kartoffeln unverändert.

Auf jeden Fall ist es erstaunlich, dass schon eine Handvoll Fotos gereicht hat, um dem Computer die paar Begriffe beizubringen. Kaum vorzustellen, was möglich wird, wenn man wie die grossen Techkonzerne Zugriff auf Milliarden von Fotos hat, die wir alle täglich irgendwo teilen und hochladen.

Wer Custom Vision selbst ausprobieren will, kann das hier. Die Verwendung ist gratis, es braucht allerdings ein Microsoft-Konto.

(Tagesanzeiger.ch/Newsnet)

Erstellt: 11.05.2017, 10:26 Uhr

Artikel zum Thema

Der unbemerkte Siegeszug der künstlichen Intelligenz

Siri, Cortana und Co. könnten das Smartphone als wichtigste digitale Plattform ablösen. Google, Apple und Co. versuchen, sich zu übertrumpfen. Mehr...

Wenn Apples Assistentin nach der Ehefrau fragt

Wie schlagen sich die Sprachassistenten von Apple, Google und Microsoft im Vergleich? Tagesanzeiger.ch/Newsnet hat Siri und Co. gegeneinander antreten lassen. Mehr...

Alle Fotos bei Google

Der neue Fotodienst verspricht, alle Schnappschüsse gratis zu speichern. Der Tagesanzeiger.ch/Newsnet-Autor hat Bedenken über Bord geworfen und sein ganzes Archiv hochgeladen. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Abo

Digitale Abos

Den Tages-Anzeiger unbeschränkt lesen:
Neu ab 18.- CHF pro Monat

Blogs

History Reloaded Kampf gegen die Einheitswelt

Sweet Home Das tut einer Männerwohnung gut

Abo

Digitale Abos - Neu ab 18.- pro Monat

Den Tages-Anzeiger unbeschränkt digital lesen. Flexibel und jederzeit kündbar
Neu nur CHF 18.- pro Monat

Die Welt in Bildern

Abgetaucht: In Zürich geniesst man die sommerlichen Temperaturen mit einem Bad im See. (26. Mai 2017)
(Bild: Walter Bieri) Mehr...