«Wir sind viel vorhersehbarer, als wir glauben»

Viktor Mayer-Schönberger glaubt, dass wir Einschränkungen unserer Freiheit durch Big Data zulassen müssen. Trotz aller Vorteile von Algorithmen bleibe der Mensch aber für sich selbst verantwortlich.

«Der Mensch kann irrational und kreativ sein, das gilt es zu schützen.»: Viktor Mayer-Schönberger, Jurist und Software-Entwickler.

«Der Mensch kann irrational und kreativ sein, das gilt es zu schützen.»: Viktor Mayer-Schönberger, Jurist und Software-Entwickler. Bild: Dominique Meienberg

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Seit 2013 ist das Schlagwort Big Data in aller Munde. Ist das ein Hype, oder steckt mehr dahinter?
Es gibt dafür handfeste Gründe. Einerseits hat die Affäre Snowden die dunkle, politische Seite von Big Data aufgezeigt. Aber auch wirtschaftlich gesehen hat sich die grundsätzliche Erkenntnis durchgesetzt, dass Daten wertvoll sind, dass noch sehr vieles von diesem Datenschatz tief im Berg schlummert und darauf wartet, geborgen zu werden.

Wir erleben also das Äquivalent zum Goldrausch, den Big-Data-Rush?
Ja, und wie beim Goldrausch gibt es eigenartige Zeitgenossen, die merkwürdige Zaubermittel anbieten.

Beim Goldrausch galt das geflügelte Wort: Nicht die Goldsucher machen das grosse Geschäft, sondern diejenigen, welche die Schaufeln verkaufen. Wer verdient beim Big-Data-Rush das grosse Geld?
Auch hier gibt es Parallelen: Die Schaufelverkäufer sind diejenigen, die in der Lage sind, die Daten zu analysieren. Die Minenbesitzer sind diejenigen, die auf den Datenbeständen sitzen. Am wichtigsten jedoch sind diejenigen, die den Überblick haben, den richtigen «Mindset», die wissen, wie man Analyse und Daten sinnvoll zusammenführen kann.

Big Data ist also nicht einfach eine neue Technologie, es ist eine neue Art zu denken. Was genau hat sich im Denken verändert?
Man hat erkannt, dass man aus einer grossen Datenmenge Dinge herausfiltern kann, die sich aus einer kleinen Datenmenge nicht erschliessen lassen. Bisher sind wir von kleinen Datenmengen ausgegangen, haben daraus logische Schlüsse gezogen und diese in der Realität getestet. Big Data ist fundamental anders. Weil ich alle Daten sammeln kann, kann ich auch ganz andere Fragen stellen.

Der Trick dabei besteht darin, eine Vielzahl von Korrelationen zwischen diesen Daten herzustellen, selbst wenn einige davon unsinnig oder zufällig sind.
Es gibt solche willkürlichen Zusammenhänge, und es besteht auch die Gefahr, dass man davon in die Irre geführt wird. Daher braucht es noch bessere Werkzeuge, damit es zu möglichst wenigen dieser willkürlichen Zusammenhänge kommt. Nur sollten wir nicht vergessen: Auch kleine Datenmengen und Logik können in die Irre führen. Das Resultat sind dann nicht willkürliche, sondern eingebildete Zusammenhänge.

Im Zeitalter von Big Data fragen wir also nicht mehr, warum etwas ist, wie es ist, sondern schlicht, was ist?
Big Data ist tatsächlich sehr pragmatisch. Wenn man weiss, was ist, dann kann man daraus Plattformen bilden für weitere kausale Zusammenhänge. Die Suche nach dem Was dient als Filter für sinnvollere Warum-Fragen.

Kommen wir von der Theorie zur Praxis: Das Auswerten einer riesigen Datenmenge eröffnet bisher ungeahnte Möglichkeiten, etwa den intelligenten Autositz. Wie funktioniert er?
Dank Big Data kann man den Hintern eines Menschen so genau ausmessen, dass er einmalig wird wie ein Fingerabdruck. Das eignet sich etwa als Diebstahlschutz. Der Autositz erkennt den Hintern des Eigentümers, und der Motor springt nur an, wenn der richtige Mensch Platz genommen hat.

Der Autositz erkennt auch, wenn der Eigentümer schläfrig oder betrunken ist. Technisch machbar geworden ist damit, dass das Auto den Dienst verweigert, wenn der Mensch fahruntüchtig ist. Ist das nicht ein zu grosser Eingriff in die persönliche Freiheit des Menschen?
Wenn es der unmittelbaren Sicherheit des Lebens dient, müssen wir eine gewisse Beschränkung der persönlichen Freiheit zulassen. Auch das ist nicht neu. Heute schon besteht die Pflicht, sich anzugurten. Der intelligente Autositz ist die logische Fortsetzung.

Was aber, wenn folgende Situation eintrifft: Ich bin betrunken, muss aber einen schwer verletzten Menschen ins Spital fahren. Wer entscheidet, ob ich das darf – der intelligente Autositz oder ich?
Hier stellt sich die Grundsatzfrage: Wie viel Sicherheit baut man in ein System ein, und wie viel Eigenverantwortung lässt man zu? In Ihrem Beispiel könnte die Lösung wie folgt aussehen: Das Auto sagt Ihnen: «Sie sind betrunken, wollen Sie wirklich fahren?» Wenn Sie Ja sagen respektive den entsprechenden Code eingeben, springt der Motor an.

Indem man Korrelationen sucht und auswertet, kann man nicht nur abklären, ob ein Mensch fahrtüchtig ist oder nicht. Man kann damit auch seine Vorlieben abklären. Warum?
Menschen sind viel vorhersehbarer, als wir uns einbilden. Wir glauben, wir seien alle sehr individuell in unseren Vorlieben, aber ein Detaillist wie beispielsweise Amazon kann inzwischen unsere Wünsche sehr präzis erahnen.

Also spioniert uns nicht nur der US-Geheimdienst aus, sondern auch Amazon?
Das ist gar nicht nötig. Allein aus den Produkten, die Sie kaufen, kann Amazon schliessen, was Sie sonst noch mögen, und zwar inzwischen erstaunlich präzise. Über die Person an sich muss Amazon überhaupt nichts wissen. Um es nochmals abstrakt zu formulieren: Amazon muss nicht wissen, warum ich beispielsweise gerne Kochbücher kaufe. Es reicht, wenn Amazon weiss, was ich sonst noch alles kaufe, um diese Korrelation herzustellen.

Selbst normale Detailhändler können inzwischen aus dem Einkaufsverhalten Schlüsse ziehen und beispielsweise erkennen, dass eine Frau schwanger ist, und sie entsprechend bewerben. Ist das nicht ein unzulässiger Eingriff in die Privatsphäre?
Das ist vielleicht ein bisschen unheimlich. Gefährlich wird es jedoch erst, wenn diese Daten an Dritte weitergegeben werden – beispielsweise, wenn der Detailhändler den Vater oder den Arbeitgeber dieser Frau über die Schwangerschaft informiert. Das kann auch unabsichtlich geschehen. Etwa, wenn die Werbung in falsche Hände gerät.

Big Data spielt selbst im intimsten Bereich, in der Liebe, eine immer wichtigere Rolle. Partnervermittler kennen den Trick mit den Korrelationen inzwischen ebenfalls – und stützen ihre Empfehlungen darauf. Was bleibt da von der romantischen Liebe noch übrig?
Es ist letztlich immer noch der Mensch, der sich entscheidet, ob er einen bestimmten Partner will oder nicht. Die Maschine erleichtert höchstens die Auswahl. In meinem Bekanntenkreis gibt es viele, die sich im Internet über solche Big-Data-Filter gefunden haben – und immer noch zusammen sind.

Wie war das bei Ihnen und Ihrer Frau?
Es war purer Zufall und noch dazu eine Verwechslung.

Der Druck auf den Menschen, die Maschine als rationalen Partner zu akzeptieren, wächst fast täglich. Die App wird zum Publikumsjoker, der alles besser weiss.
Daher müssen wir sicherstellen, dass es für den Menschen weiterhin den Freiraum gibt, Nein zu sagen und unabhängig vom Algorithmus Entscheidungen zu treffen.

Wie soll das möglich sein in einer Welt, in der bald jeder Kindergarten ein Rating hat und jede Putzfrau gelistet wird? Ist das nicht entsetzlich?
Es ist vor allem dann entsetzlich, wenn diese Ratings auf Small Data beruhen. Die Basis für Ratings von Schulen und Universitäten sind in der Regel wenige und subjektive Wertungen sowie ein paar fragwürdige Kenngrössen wie die Anzahl der Studenten und der Professoren.

Wir versuchen, Big Data mit Small Data zu machen?
Wir tun nur so, als würden wir Big Data machen. Die Resultate schwanken zwischen lächerlich und fragwürdig und lassen sich zudem leicht manipulieren. Daher glaube ich nicht, dass diese Ratings, so wie wir sie heute machen, der Weisheit letzter Schluss sind.

Die Ratings sind aber weiter auf dem Vormarsch. Inzwischen werden auch die Kunden geratet. Airlines rüsten Flugbegleiterinnen mit iPads aus, die präzise Informationen enthalten über die Fluggäste und ihre Macken, Ärzte weisen schwierige Patienten ab. Zerstören wir so nicht die letzten Reste von menschlicher Solidarität und Gemeinschaftsgefühl?
Wenn der Druck so gross wird, dass man nicht mehr Nein sagen kann, dann besteht diese Gefahr tatsächlich. Tritt Big Data hingegen als Ratgeber auf, kann der Mensch davon profitieren.

Müssen wir uns damit abfinden, dass Erfolg nur noch in Zusammenarbeit mit Maschinen möglich ist?
Ja, Menschen brauchen die Maschinen als Helfer. Nur so können wir in einer zunehmend komplexen Welt vernünftige Entscheidungen treffen.

Liefern wir uns damit nicht den Maschinen aus?
Nur wenn wir ihnen blind vertrauen. Daher müssen wir verhindern, dass der Druck entsteht, so zu handeln, wie die Maschine es vorgibt.

Das ist leichter gesagt als getan. Angenommen, Sie sind Militärpilot auf einer Mission. Der Computer sagt Ihnen, die Wahrscheinlichkeit, dass es sich bei einer Ansammlung in einem Dorf um eine Terrorgruppe und nicht um eine Hochzeit handle, liege bei 87 Prozent, und empfiehlt Ihnen, die Rakete abzuschiessen. Drücken Sie auf den Knopf oder nicht?
Entscheiden muss in einer solchen Situation immer der Mensch. Aber das war bisher auch schon so. Neu ist einzig, dass aufgrund von Big Data die Wahrscheinlichkeiten besser eingeschätzt werden können. Aber das ändert nichts daran, dass es immer noch Wahrscheinlichkeiten sind. Der Mensch kann sich seiner Verantwortung nicht entziehen. Natürlich braucht er dazu Regeln. Um beim Kampfpiloten zu bleiben, könnte eine solche Regel etwa wie folgt lauten: Wenn die Wahrscheinlichkeit, dass Zivilisten im Spiel sind, grösser als ein Prozent ist, dann darf nicht geschossen werden.

Der Autositz entscheidet, ob ich fahrtüchtig bin oder nicht. Die App sagt mir, in wen ich mich wie verlieben soll. Ratings klassieren unablässig meine Leistung, und die künstliche Intelligenz unterbreitet mir in kniffligen Situationen geeignete Lösungsvorschläge. Wo zum Teufel bleibt da der Mensch?
Menschsein bedeutet, Risiken einzugehen. Datenkorrelationen ausrechnen kann der Computer viel besser, Risiken eingehen kann er nicht. Der Mensch hingegen kann irrational sein, er kann unsachlich entscheiden, er kann kreativ und originell sein. Das gilt es zu schützen und zu bewahren. (Tages-Anzeiger)

Erstellt: 07.01.2014, 08:39 Uhr

Artikel zum Thema

Das Big-Tech-Meeting im Weissen Haus

Obama empfing Marissa Meyer, Sheril Sandberg und Tim Cook. Mehr...

«Wir haben bereits zu viel Transparenz»

«Tages-Anzeiger»-Forum Das «Tages-Anzeiger»-Forum «Algorithmus» befasst sich mit der Zukunft der Daten. Wir berichteten live vom Big-Data-Tag. Mehr...

«Die meisten gehen davon aus, dass der Staat sie schützt»

Nächste Woche beginnen die Europäischen Trendtage – «Big Data» heisst das Thema. Was darunter zu verstehen ist und warum sich ein Verzicht auf Privatsphäre lohnen kann, sagt der Trendforscher Peter Wippermann. Mehr...

Viktor Mayer-Schönberger
Jurist und Software-Entwickler

Der 47-jährige Jurist Viktor Mayer-Schön­berger hat an der Harvard University und an der London School of Economics studiert. 1986 gründete er die Softwarefirma Ikarus mit dem Entwicklungsschwerpunkt Datensicherheit. 1999 übernahm er eine Professur an der Harvard Kennedy School. Zusammen mit Kenneth Cukier hat er dieses Jahr den Bestseller «Big Data» veröffentlicht. (pl)

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Weiterbildung

Gamen in der Schule

Die Schule bereitet Kinder auf die Arbeitswelt vor. Das Rüstzeug soll auch spielerisch vermittelt werden.

Kommentare

Die Welt in Bildern

Kampf gegen Rassismus: Ein Demonstrant protestiert gegen die Kundgebung «Liberty of Death», eine Versammlung von Rechtskonservativen vor der Seattle City Hall in Seattle, Washington. (18. August 2018)
(Bild: Karen Ducey/AFP/Getty) Mehr...