«Das ist immer noch ein Hype»
Für den Zürcher Robotiker Rolf Pfeifer ist die Furcht vor der künstlichen Intelligenz übertrieben, weil diese die Leistungen des menschlichen Gehirns bei weitem noch nicht erreicht.

Sie sind im wissenschaftlichen Beirat des Projektes Mindfire, das die künstliche Intelligenz zum Vorteil der Gesellschaft erforschen und nutzen will. Wieso machen Sie da mit?
Das Mindfire-Programm überzeugt mich total. Es ist kreativ und bringt frischen Wind in die Forschung.
Die Initianten möchten die besten Talente zusammenbringen, die weltweit in dem Gebiet forschen.
Genau da sehe ich eine meiner Hauptaufgaben. Ich habe ein grosses Netzwerk und kann dieses zur Verfügung stellen. Ich kenne die Leute auf der ganzen Welt, die man dafür ansprechen muss.

Das Lächeln sitzt: Roboy winkt in die Kamera. Bild: Doris Fanconi
Geht es bei dem Projekt darum, die menschliche Intelligenz zu verstehen oder eine künstliche Intelligenz zu entwickeln?
Ich würde hier nicht von «einer» künstlichen Intelligenz sprechen, weil das suggeriert, dass dies so etwas wie eine isolierte Entität darstellt, zum Beispiel ein humanoider Roboter. Viele – auch in den Medien – denken bei «einer künstlichen Intelligenz» an diese Deep Neural Networks, die künstlichen neuronalen Netzwerke. Also die Idee, dass man die Systeme nicht mehr programmieren muss, sondern sie selber lernen lässt. Das ist eine faszinierende Vorstellung und hat auch schon zu einer grossen Zahl von bedeutenden praktischen Anwendungen geführt: Sprachanalyse, medizinische Diagnostik, Bilderkennung, selbstfahrende Vehikel etc. Der Löwenanteil dieser Forschung fokussiert auf die Entwicklung von Algorithmen: Man sammelt sehr viele Daten, putzt diese, strukturiert sie und füttert die Algorithmen damit. Es ist sicher nicht falsch, diesen algorithmischen Ansatz «Intelligenz» zu nennen, man muss sich einfach bewusst sein, dass es wirklich nur Algorithmen sind.
Worin unterscheidet sich diese Intelligenz von der menschlichen Intelligenz?
Menschliche Intelligenz kann nur als Teil der Umwelt verstanden werden. Im Gegensatz zu einem Computer handeln Menschen dauernd, und jede Handlung erzeugt Sensorstimulation: Wenn wir gehen, bewegt sich die Umwelt übers visuelle Feld, wenn ich eine Kaffeetasse in die Hand nehme, spüre ich, dass sie heiss ist. Und diese Sensorstimulation ist das Resultat meiner Handlungen und stellt auch gewissermassen das «Rohmaterial» für die Informationsverarbeitung des Gehirns dar, und so kann etwas über die Umwelt gelernt werden. Das ist eine komplett andere Situation, als wenn ich einen Algorithmus mit Daten versorgen muss.
«Das Programm Alpha Go weiss nicht einmal, dass es Go spielt.»
Kann man eine künstliche Intelligenz besser machen, wenn man das menschliche Gehirn in seinem Körper versteht?
Hier kommt es drauf an, was man unter «Intelligenz» oder «künstlicher Intelligenz» verstehen will. Das hängt weitgehend von der Interessenlage ab: Will ich ein System für medizinische Diagnostik, eines, das Konsumverhalten von Kunden voraussagen kann, Sprache analysieren kann à la Siri oder Go spielen kann? Das lässt sich auf der algorithmischen Ebene abhandeln. Geht es jedoch um das Verstehen menschlicher Intelligenz, muss man den gesamten Organismus verstehen.
Welchen Weg müsste man dazu beschreiten?
Ich habe das Labor für künstliche Intelligenz an der Uni Zürich 30 Jahre geführt. Unser Motto war immer «Verstehen durch Nachbauen». Durch den Versuch, künstliche Intelligenz zu bauen, lernt man auch, zu verstehen, wie die menschliche Intelligenz funktioniert.
Was unterscheidet diesen Ansatz vom Human Brain Project, bei dem das menschliche Hirn simuliert werden soll, ein milliardenschweres EU-Flaggschiff-Projekt?
Die ursprüngliche Vision des Human Brain Project war ja die naturgetreue Simulation des menschlichen Gehirns, mit dem Ziel, nachher das Hirn besser zu verstehen und danach auch viele der Krankheiten des Zentralnervensystems heilen zu können. Aber das Projekt geriet in eine Krise, vielleicht weil es einfach zu gross ist. Die Kritiker hatten aber auch durchaus recht, wenn sie sagten, dass es nicht reicht, das menschliche Hirn zu simulieren. Denn dieses steht nicht für sich alleine da. Es ist Teil eines Organismus. Deshalb muss man dieses auch darin eingebettet begreifen.
Was bedeutet das?
Das heisst nichts anderes, als dass man auch Robotik machen muss, wenn man das Hirn über seine Simulation verstehen möchte. Nun wurde auch ein beachtlicher Teil des Human-Brain-Budgets in die Robotik gesteckt. Das ist eine positive Entwicklung. Allerdings sind diese beiden Richtungen bisher noch nicht wirklich miteinander verbunden worden. Das wird die grosse Herausforderung für das Projekt sein.
Wir sind von der Technologie schon längstens versklavt worden.
Sie wollen Roboter mit künstlicher Intelligenz ausstatten. Werden sich die Roboter nicht plötzlich selbstständig machen?
Die Tatsache, dass eine Maschine eine Intention hat, ist für mich noch nicht prinzipiell bedrohlich. Sie haben ja auch Absichten, die ich nicht kontrollieren kann, und trotzdem habe ich keine Angst davor.
Aber Sie merken vielleicht intuitiv, weil wir Artgenossen sind, dass ich Ihnen nicht schaden will.
Okay, das stimmt. Was ich aber sagen will, ist, dass die künstliche Intelligenz immer noch von einem riesigen Hype umrankt wird, der stark übertrieben ist, besonders was die künstlichen neuronalen Netzwerke oder Deep Neural Networks betrifft. Ein Beispiel ist das Programm Alpha Go, das die menschliche Leistungsfähigkeit bei dem komplexen Go-Spiel deutlich übertrumpft. Aber hier muss man zwischen zwei Eigenschaften unterscheiden, nämlich zwischen der Performance und der Kompetenz. Bei der Performance sind die intelligenten Systeme natürlich top, weil zum Beispiel Alpha Go sogar gegen den Weltmeister Lee Sedol gewinnt. Dasselbe bei der Bilderkennung. Die können dank neuronaler Netzwerke, die vorher mit sehr vielen, Hunderttausenden oder gar Millionen von Bildern gefüttert wurden, erkennen, ob auf einem Bild ein Kind ist, das Frisbee spielt, oder eine Katze.
Das ist doch erstaunlich.
Ja, das ist tatsächlich eine tolle Leistung. Man darf aber dabei nicht übersehen, dass die Systeme keine Ahnung haben, was eine Katze ist. Die wissen nicht, dass Menschen gerne Katzen als Haustiere haben, dass Katzen Krallen haben, dass sie essen müssen und so weiter. Ein dreijähriger Knabe jedoch muss keine 10 Millionen Situationen sehen und analysieren, bis er merkt, was eine Katze ist. Diese Programme haben also sehr wenig oder gar keine Kompetenz. Alpha Go weiss nicht einmal, dass es Go spielt, und es will eigentlich gar nicht spielen. Es sind nur irgendwelche Algorithmen, die ablaufen.
Bilder: Roboter lernen immer mehr
Aber gesteigerte Leistungsfähigkeit der Computer gepaart mit Big Data könnte auch zu überraschenden Ergebnissen führen.
Das ist auf jeden Fall so. Man muss sich einfach bewusst sein, dass Big Data auch so ein Hype ist. Experten im Bereich Deep Neural Networks verbringen einen Grossteil ihrer Zeit mit dem Sammeln von Daten sowie mit dem Säubern und Strukturieren der Daten, um damit die Algorithmen zu füttern. Aber diese Algorithmen haben überhaupt keine Verbindung zur realen Welt.
Besteht nicht die Gefahr, dass uns KI-Roboter einmal versklaven werden?
Ach was. Und im Übrigen sind wir, dies nur als Nebenbemerkung, von der Technologie schon längstens versklavt worden. Wir müssen uns ihr dauernd anpassen. Nehmen wir ein geläufiges Beispiel, einen BMW.
Wie versklavt ein BMW die Menschen?
Er instrumentalisiert die Menschen – die Ingenieure, die Designer, die Unternehmer –, laufend zu seiner Verbesserung und Vermehrung beizutragen, und die Menschen machen das nicht freiwillig. Das ist übrigens eine Idee, die auf den berühmten englischen Biologen David McFarland von der Oxford University zurückgeht. Ich gebe Ihnen ein anderes Beispiel. Ich habe einen ehemaligen Doktoranden, der heute bei Apple arbeitet. Er hat mir gesagt, dass sie bei Apple nur noch schauen, dass der Laden so weiterläuft, wie es vorgegeben ist. Sie erhalten ein neues Modell, merzen Kinderkrankheiten aus, schauen, dass auch bei diesem Modell Bluetooth und alles andere wieder läuft. Das heisst, sie verwenden die meiste Arbeitszeit darauf, zu schauen, dass es weiterläuft, und haben gar keine Zeit mehr für Innovationen. Und das machen die Mitarbeiter ja nicht freiwillig, sie werden von der Organisation und, ja, von den Geräten dazu gezwungen, Dinge zu machen, die sie gar nicht wollen. Das ist doch nichts anderes als eine Versklavung durch die Technologie. Dazu müssen wir nicht auf den Terminator warten.
Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch