«Intelligente Computer werden Befehle verweigern»

Erstmals schlug ein Computer einen Menschen beim Brettspiel Go. Kai Schlieter erklärt, welche Art von Intelligenz es dafür braucht.

«Das System sah einen Pixelnebel und lernte selber zu spielen»: Ein Rechner von Google spielt gegen den Go-Profi Lee Sedol (rechts). Foto: Ahn Young-Joon (AP, Keystone)

«Das System sah einen Pixelnebel und lernte selber zu spielen»: Ein Rechner von Google spielt gegen den Go-Profi Lee Sedol (rechts). Foto: Ahn Young-Joon (AP, Keystone)

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Ein Rechner schlägt den weltbesten Spieler im Brettspiel Go. Sind Sie überrascht?
Ich war es nicht, bis ich erfuhr, dass es im Go mehr mögliche Spielzüge gibt als Atome im Universum.

Ist es nicht gerade darum plausibel, dass der Computer gewinnt?
Nein, weil es eben nicht mehr bloss um Rechenleistung geht. Alle möglichen Spielzüge durchzurechnen, das schafft kein Rechner. Also muss er können, was der Mensch kann. Er muss Intuition ­beweisen, selber Strategien entwickeln und Entscheidungen treffen. Darum finde ich es sehr erstaunlich, dass die Maschine gewonnen hat.

Wie ist das gelungen?
Offenbar hat der Computer zunächst gelernt, wie Menschen spielen. Dann hat er gegen einen anderen Computer trainiert, der die Spielzüge ebenfalls von Menschen gelernt hatte. Dabei wurden erfolgreiche Züge ständig und sehr schnell rückgekoppelt ins Spielverhalten. Der Computer hat also selbstständig gelernt, immer besser zu werden.

Das selbstständige Lernen ist der entscheidende Schritt zur künstlichen Intelligenz?
Ja. Die Firma Deep Mind, die Google gehört und die nun das Experiment mit Go vorgestellt hat, hat schon ähnliche Versuche gemacht. So hat ein Rechner ohne jede Vorgabe gelernt, Spiele von Atari zu spielen. Wie ein menschlicher Spieler erhielt er als Eingabe nur die Startseite. Das System sah also einen Pixelnebel und lernte selber, dass es sich um ein Spiel handelte, dass es Punkte zu gewinnen gab und wie die Regeln lauten. Nach wenigen Stunden spielte es viele dieser Spiele besser als jeder Mensch.

Menschen haben einen Spieltrieb, sind neugierig und ehrgeizig. Wieso lernte der Computer zu spielen?
Er wollte seine Punktzahl steigern. Die Forscher hatten ihm ein entsprechendes Belohnungssystem einprogrammiert.

Computer lernen also nur, weil sie belohnt werden?
Diese Versuche basieren auf der Forschung von Burrhus Frederic Skinner, der in den Fünfzigerjahren die Verhaltenspsychologie mitbegründete. Er trainierte Ratten durch Belohnungen dazu, bestimmte Dinge zu lernen. Genauso programmieren Informatiker heute ihre Rechensysteme dazu, bei Atari-Spielen besser zu sein als der Mensch.

Die neuronalen Netze der Rechner sind dem Gehirn nachempfunden. Funktionieren sie tatsächlich gleich wie beim Menschen?
Im Prinzip schon. Diese Netze sind seit ein paar Jahren in der Lage, Informationen zu repräsentieren. Das heisst, sie sehen eine Tomate und erkennen sie als Tomate. Beim Menschen befindet sich die Tomate ja auch nicht im Gehirn, wenn er sie sieht, sie ist nur eine Repräsentation. Computer erkennen jetzt auch ein Sonett von Shakespeare.

Aber sie können es nicht schreiben.
Sie können immerhin schon im Duktus von Shakespeare schreiben. Und vergessen wir nicht, dass sich gemäss dem moorschen Gesetz die Rechnerkapazität alle 18 Monate verdoppelt. Das Pentagon geht davon aus, dass 2020 die Vernetzung künstlicher Neuronen die gleiche Komplexität erreicht, wie sie das Gehirn eines erwachsenen Menschen hat.

Und 2030?
Die Rechenleistung dieser Systeme wächst exponenziell. Wenn sie 2020 tatsächlich die Komplexität einer Gehirns erreichen, dann erreichen sie bald darauf die der Menschheit. Es fällt schwer sich vorzustellen, was das bedeutet. Die Algorithmen, die diese Systeme definieren, weren schon heute von einer Software geschrieben. Sie sind zu komplex, als dass Menschen sie verstehen.

An der Börse handeln Algorithmen mit Algorithmen. Niemand weiss, was sie genau tun, oder warum es zu Flash Crashes kommt und die Börse für Millisekunden einbricht. Ist die Finanzwelt die Pionierzone der künstlichen Intelligenz?
Richtig, und das ist kein Zufall. Denn diese Forschung kommt letztlich aus dem Militär, und nach dem Kalten Krieg wechselten viele Informatiker und ­Mathematiker von der US-Armee und den Geheimdiensten an die Wallstreet. Heute haben wir dort den Hochfrequenzhandel und diese komplexen Finanzprodukte, die zu 70 bis 80 Prozent durch künstliche Intelligenzen abge­wickelt werden: Rechner handeln auf Basis von Wirtschaftsinformationen, die andere Rechner zur Verfügung stellen. Wenn Angela Merkel an die Märkte appelliert, um sie zu beruhigen, spricht sie zu Maschinen.

Wieder andere Computer erstellen – zum Beispiel bei Blackrock – die Risikoanalysen. Warum geben die Menschen die Kontrolle ab?
Ganz einfach, weil sie selber nicht in der Lage wären, derartige Datenmengen zu verarbeiten. Es gibt ja das Bonmot, wonach eine künstliche Intelligenz nur durch eine andere künstliche Intelligenz zu kontrollieren ist. Da ist was dran.

Irrt sich künstliche Intelligenz?
Klar. Sie basiert ja im Kern auf Wahrscheinlichkeitsrechnung, und die bringt es mit sich, dass die grosse Wahrscheinlichkeit auch mal nicht eintrifft.

Irrt sie sich wenigstens seltener als der Mensch?
Wir sehen an den Hunderten von Flash Crashes an der Börse, dass sie sich regelmässig irrt. Ich würde aber schon sagen, dass die Rechner viel zuverlässiger mit grossen Datenmengen arbeiten können als Menschen.

Die künstliche Intelligenz weiss besser, was gut ist für uns?
Das ist die grosse Frage. Das Argument, wonach der Mensch langsam, fehleranfällig und häufig irrational handelt, hat schon eine grosse Rationalität für sich. Das Problem ist nur, dass wir uns künftig so sehr auf diese Systeme verlassen werden, dass sie zur Pflicht werden. Es ist plausibel, dass wir auf der Strasse die Zahl der Toten drastisch reduzieren können, sobald die Autos selber fahren. Also werden wir selbstfahrende Autos zum Gesetz machen. Das bedeutet aber auch, dass die Autonomie des Menschen hinterfragt und eingeschränkt wird. Die Idee, dass der Mensch irrational ist und man ihm helfen muss, richtige Entscheidungen zu treffen, ist in der Politik heute weit verbreitet: Verhaltensökonomen in der Nachfolge von Burrhus Frederic Skinner, die dieses Menschenbild vertreten, sitzen in den Beraterstäben von Barack Obama, Angela Merkel oder David Cameron.

In Hongkong hat eine Firma eine künstliche Intelligenz gleichwertig in den Verwaltungsrat bestellt. Finden Sie das falsch?
Ich finde es zwiespältig. Im Gesundheitswesen zum Beispiel, etwa in der Diagnostik, sind Computer oft schneller und besser als Ärzte. Und dass immer mehr Menschen sogenannte Wearables tragen, um ihre Körperdaten zu erheben, ist für die Forschung tatsächlich ­interessant: Erstmals in der Geschichte gibt es massenhaft Daten zu gesunden, und nicht nur zu kranken Menschen. Aber diese Daten sind auch für kommerzielle Unternehmen interessant, etwa für Versicherungsunternehmer. Big Data kann zum Überwachungsinstrument werden, das mich bestraft, wenn ich mich nicht verhalte wie gewünscht.

In der Datenwelt lebt eine Art ideale Version von mir, ein aus meinen Daten errechneter Avatar, in den ich mich möglichst verwandeln soll?
China führt 2020 den «Citizen’s Score» ein. Jeder Bürger erhält zu seinem Personalausweis einen Punktwert, der sich aus seinem Surfverhalten berechnet. Wer einen bestimmten Wert unterschreitet, weil er auf den falschen Websites war oder auf Facebook die falschen Freunde hat, wird aus bestimmten Berufen ausgeschlossen, oder sein Bewegungsradius wird eingeschränkt. Das ist für den Westen ein Horrorszenario, aber auch bei uns werden die Bürger schon jetzt systematisch gescort, etwa durch Versicherungsgesellschaften.

Wie hoch ist das totalitäre Potenzial der künstlichen Intelligenz?
Sie ist die Schlüsseltechnologie für intelligente Waffen und für alle Dienste, die uns überwachen und beispielsweise Revolutionen erkennen, bevor sie ausbrechen. Für den einzelnen Menschen besteht die Gefahr, dass ihn die Daten, die er erzeugt, determinieren. Er bekommt dann keinen Kredit, weil er im falschen Stadtteil wohnt. Die NSA hat in Pakistan 55 Millionen Menschen danach gescort, ob sie eventuell einen Terroranschlag planen. Auf Basis dieser Daten wurden 2500 bis 4000 Menschen getötet.

Wer treibt heute die Entwicklung der künstlichen Intelligenz voran? Immer noch das Militär oder die Datenkonzerne?
Das liess und lässt sich nicht trennen. Die Doktorarbeit von Sergey Brin, in der er beschrieben hat, wie seine zukünftige Firma Google funktionieren sollte, wurde mit 100'000 Dollar von der CIA gesponsert. Google ist nicht einfach nur ein Konzern. Die Firma bildet Mitglieder der US-Regierung weiter, berät das Pentagon und hat selbst politische Ambitionen. In China ist die Nähe des Konzerns Baidu zur Regierung noch viel offensichtlicher. Hier wie da sind es Monopolisten und Regierungen, die über die meisten Daten verfügen – ein neuer militärisch-industrieller Komplex.

Und in Europa?
Zumindest die öffentliche Politik ist bei diesem Thema vollkommen unterbelichtet. Wir haben es mit einer Spitzentechnologie zu tun, die so streng beaufsichtigt werden sollte wie die Atomkraft – die dafür aber viel zu niederschwellig ist. Die Rechenleistung, die es braucht, um eine künstliche Intelligenz zu programmieren, kann man auf den Servern von Amazon mieten. Darin gründet aber auch eine Hoffnung: Dass sich nicht nur Monopolisten und Geheimdienste diese Technologie aneignen, sondern auch Universitäten oder NGOs.

Es gibt Versuche, Kampfdrohnen so zu programmieren, dass sie auch ethische Kriterien berücksichtigen. Kann künstliche Intelligenz auch Ethik erlernen?
Wenn man davon ausgeht, dass Ethik nicht einem göttlichen Odem entspringt, sondern aus dem menschlichen Gehirn erklärbar ist, dann ist das wohl möglich. Computer lernen bereits Gefühle, warum nicht auch so etwas wie Moral?

Ist es denkbar, dass sie sich Ethik oder Moral sogar selber beibringen?
Ja.

Werden sie dereinst menschliche ­Befehle verweigern?
Das werden sie selbst entscheiden. Ich vermute es.

(Tages-Anzeiger)

(Erstellt: 13.03.2016, 23:46 Uhr)

Kai Schlieter

Der Journalist und Autor der «Berliner Tageszeitung» ­beschreibt in «Die Herrschaftsformel» (Westend-Verlag) den schnellen Aufstieg der künstlichen Intelligenz.

Artikel zum Thema

Verzweifelte Hirne

Das alte Brettspiel Go war eine letzte Bastion, nun stehts schon 2:0 für Google. Streifzug durch die Geschichte von Mensch und Maschine. Mehr...

1:0 für die künstliche Intelligenz

Eine Software von Google ist in einer Partie des Brettspiels Go gegen den Champion Lee Sedol angetreten – und hat für eine Überraschung gesorgt. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Service

Ihre Spasskarte

Mit Ihrer Carte Blanche von diversen Vergünstigungen profitieren.

Werbung

Kommentare

Weiterbildung

Kostenlose E-Books

Laden Sie in unserem Weiterbildungs-Channel kostenlos Ebooks herunter.

Die Welt in Bildern

Schön synchron: Die lettische Flugstaffel «Baltic Bees» zeigt an einer Flugshow in der moldawischen Hauptstadt Kischinau in 39C-Albatross-Maschinen ihr Können (25. September 2016).
(Bild: Dumitru Doru) Mehr...