Hintergrund

Die Diktatur der Daten

Big Data und die Verwendung lernfähiger Algorithmen verändern die Wirtschaft, die Politik und sogar unser Denken. Die Umwälzungen sind im Gang, ohne dass wir es realisieren. Und betreffen uns alle.

Wer alle Daten hat, sieht das grosse Bild: Algorithmen steuern 70 Prozent des Börsenhandels.

Wer alle Daten hat, sieht das grosse Bild: Algorithmen steuern 70 Prozent des Börsenhandels.

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Man muss nicht immer bei Adam und Eva anfangen, aber bei diesem Thema vielleicht schon. Kaum hatte Gott Adam und Eva allein gelassen, begann der Ärger. Eines Morgens entdeckte er Evas Spuren unter dem Baum der Erkenntnis, und seine Geschöpfe empfanden plötzlich Scham. Damit hatte Gott genug Daten, um die Geschehnisse rekonstruieren zu können. Eva hatte Adam zum Naschen verführt – als ob Gott sich das nicht hätte ausrechnen können.

Wer Zugang zu allen Informationen hat, kann darauf schliessen, was als Nächstes geschehen wird – so zumindest die Hoffnung jener, die mit Big Data ein neues Zeitalter anbrechen sehen: Wissenschafter, Ingenieure, Marketingfachleute und Politiker. Die Akkumulation immer grösserer Datenmengen, auch Big Data genannt, wird alles verändern, Politik, Wirtschaft und Gesellschaft, manche sagen sogar, das menschliche Denken selbst. Nur was damit genau gemeint ist, wissen die wenigsten.

Das grosse Bild

Der Laie stellt sich unter «Daten» gewöhnlich trockene Zahlen vor, Bankkonten oder Geburtsdaten, Gewichtsangaben oder Adressen. Das ist richtig, aber ein schlechtes Bild, wenn man begreifen will, warum man Daten als das neue Öl bezeichnet. Daten stellt man sich besser als Spuren vor, die wir in der Welt hinterlassen – schon immer. Spuren unserer Wege, Handlungen und Worte, unserer Vorlieben und Leidenschaften. Denn auch diese hinterlassen Spuren, auch wenn sie nur für denjenigen erkennbar sind, der das grosse Bild sieht.

Nehmen wir eine klassische Geheimdienstgeschichte, zum Beispiel die von Jason Bourne im Film «The Bourne Identity». Er ist ein Superagent, der irgendwo mit zwei Kugeln im Rücken aus dem Meer gefischt wird und nicht weiss, wer er ist. Die einzige Information zu seiner Person ist die Nummer eines Schweizer Bankkontos. Die Regierung weiss hingegen sehr genau, wer er ist, aber nicht, wo er ist. Als Bourne in Zürich das Schliessfach leert, kommt ihm die Regierung schnell auf die Spur. Die Aufzeichnungen von Überwachungskameras liefern den Beweis, dass es sich bei dem Mann um Jason Bourne handelt. Als er mit einer zufällig getroffenen Passantin in ihrem Mini flieht, setzt der Geheimdienst alles daran, das Duo zu finden. Und dazu braucht er Daten – Informationen zur Komplizin: Name, Eltern, Freunde und Bekannte, ständige Adresse, ihre Telefonliste, ihre Bankdaten, ihren Lebenslauf. Die Daten geben nicht nur darüber Auskunft, wer die Komplizin ist, sondern lassen auch Rückschlüsse darauf zu, wo das Duo demnächst auftauchen könnte.

Eine neues Universum

Der Unterschied von normalen Daten zu Big Data, sagt der Physiker und Soziologe Dirk Helbing, bestehe in der Menge der vorhandenen Daten und dadurch den Möglichkeiten, sie auszuwerten. Leistungsfähigere Computer und Speichermedien machen es möglich, grosse Mengen Daten zu erfassen. Unvorstellbare Mengen. Täglich produzieren wir 2,5 Quintillionen Bytes neuer Daten – das ist eine Zahl mit 30 Nullen. Das Informationsvolumen verdoppelt sich alle zwei Jahre. Still und leise wuchert dieses Datenuniversum vor sich hin, aus dem sich alle möglichen Informationen über Individuen oder ganze Bevölkerungsgruppen ablesen lassen.

Es ist ein neuer Raum, den man vermessen und bereisen kann. Die Daten sind vielfältig: Statistiken des Bundes, Geodaten auf unseren Smartphones, Aufzeichnungen von Kameras und Sensoren im öffentlichen Raum, Tweets, Statusmeldungen und Links, die wir im Internet anklicken. Unsere Spuren sind überall. Und im Unterschied zu früher verblassen sie nicht mehr einfach so, sondern werden gespeichert und zur weiteren Verwertung archiviert.

Die Raumkapsel, die durch diesen Datenkontinent navigiert, ihn überhaupt erfassbar macht für uns, heisst Algorithmus. Ursprünglich ist ein Algorithmus eine mathematisch kodierte Handlungsvorschrift zur Lösung eines Problems. Ein Auftrag, in einer bestimmten Situation X die Handlung Y zu vollziehen. 1843 implementierte die britische Mathematikerin Ada Lovelace zum ersten Mal einen Algorithmus auf einer Rechenmaschine und begründete damit die Informatik. Seither hat der Algorithmus eine steile Karriere gemacht als Steuerungsinstrument für Computer.

«Algorithmen wissen mehr über dich als deine Freunde und deine Familie.»

Die Sternstunde des Algorithmus kam mit dem Internet, genauer mit Google, der Suchmaschine, die durch ihren überlegenen Algorithmus für viele zum Synonym für das Internet überhaupt wurde. Heute sind Algorithmen verbreitete Navigationsinstrumente: Sie steuern den Börsenhandel oder Staubsaugerroboter, sie empfehlen uns Bücher auf Amazon und versuchen, Terroristen zu finden.

Das Prinzip ist simpel: Algorithmen erkennen Muster und Gesetzmässigkeiten in Datensätzen, die wiederum Prognosen über zukünftiges Verhalten zulassen. Und die sind umso genauer, je mehr Daten zur Verfügung stehen. Kaufe ich Bücher auf Amazon, so analysiert der Algorithmus, wer sich für dieselben Werke wie ich interessiert und welche Bücher diese Menschen sonst noch gekauft haben. Dabei kann er verschiedene Variablen erfassen, etwa wo die Handlung spielt, wer die Protagonisten sind, um welche Themen es geht. Aufgrund dieser Daten gibt er schliesslich Prognosen ab, welche Bücher mich sonst noch interessieren könnten.

Algorithmen, sagt Daniel Kossmann, Informatikprofessor an der ETH, automatisieren Erfahrungen. Und je mehr Daten zur Verfügung stehen, desto genauer werden sie. Denn mithilfe von Big Data kann der Prozess der gemachten Erfahrungen laufend angepasst werden. Deshalb sagt Soziologe Helbing: «Algorithmen wissen mehr über dich als deine Freunde und deine Familie. Manchmal wissen sie mehr über dich als du selbst.»

Ethisch fragwürdig

Ein Algorithmus kann nicht nur auf beinahe beliebig viele Daten zugreifen, er arbeitet auch unendlich viel schneller als ein Mensch. Das verschafft Vorteile – zum Beispiel an der Börse. Heute werden nach Schätzung des Unternehmers Kevin Slavin bereits 70 Prozent des ganzen Börsenhandels über sogenannte Trading-Algorithmen abgewickelt. Diese erkennen auf der Basis von Wahrscheinlichkeitsberechnungen minimale Veränderungen des Marktes und tätigen dann automatisch Kaufentscheidungen. Das führt zu einer Situation, dass Algorithmen auf andere Algorithmen reagieren und scheinbar ohne Zutun von Menschen miteinander interagieren.

Das kann unerwartete Folgen haben wie den sogenannten Börsen-Flash-Crash am 6. Mai 2010. Ein Algorithmus verkaufte unerklärlicherweise 75'000 Aktien im Wert von rund 5 Milliarden Franken, was andere Algorithmen veranlasste, ebenfalls zu verkaufen. Innerhalb von zehn Minuten wurden beinahe 1,3 Milliarden Aktien gehandelt, das Sechsfache des Durchschnitts. Was folgte, waren fünf Minuten Chaos. Bis heute weiss niemand genau, wie es dazu kommen konnte. Der Vorfall führte dazu, dass eilig neue Regeln für den US-Börsenhandel beschlossen wurden, um solches künftig zu verhindern.

Gott wird sich nach dem Sündenfall gesagt haben, dass es keine sonderlich gute Idee war, uns im Paradies allein zu lassen. Analog sehen wir heute, dass es angebracht ist, das Verhalten der von uns geschaffenen Algorithmen zu beobachten. Und sich zu überlegen, welche Algorithmen wir wozu verwenden. Denn der Algorithmus selber ist dumm, er stellt nur Korrelationen fest – erst der Mensch interpretiert, was diese zu bedeuten haben. Dirk Helbing vergleicht das mit der Astrologie: «Wir sehen zufällig arrangierte Sterne am Himmel und interpretieren Muster hinein, denen wir danach eine Bedeutung zuweisen. Aus wissenschaftlicher Sicht ist diese Bedeutung aber völlig hanebüchen, weil sich aus Korrelationen nicht unbedingt Kausalitäten ableiten lassen.»

Dasselbe Problem, so Helbing, gebe es bei grossen Datenmengen: «Algorithmen werden immer irgendwelche Muster erkennen, doch ob und was diese zu bedeuten haben, können sie uns nicht sagen.» Das ist die Aufgabe des Menschen. Darum plädiert Helbing dafür, die Qualität der verwendeten Algorithmen und der Schlussfolgerungen, die daraus gezogen werden, stetig zu hinterfragen.

Letztlich beauftragen Menschen ihre Algorithmen, bestimmte Aufgaben für sie zu erledigen, so beruhigen Wissenschafter. Ob das eine vorbehaltlos gute Nachricht ist, sei dahingestellt. Denn der Mensch hat zwar die Fähigkeit zur Erkenntnis, aber er setzt sie nicht immer besonders klug ein. Und auch nicht immer zum Vorteil aller. Die amerikanische National Security Agency (NSA) verwendet Algorithmen heute, um Terroristen dingfest zu machen oder geplante Verbrechen zu verhindern.

RAF und Rasterfahndung

Das ist nicht neu. 1975 erfand der deutsche Polizeibeamte Horst Herold die Rasterfahndung. Um RAF-Terroristen auf die Spur zu kommen, nahm er öffentliche Datenbanken und liess Computer nach Mustern suchen. Er glich die Daten der Einwohnermeldeämter mit denen von Energieversorgungsunternehmen und Wohnungsmaklern ab und suchte nach Leuten, die Strom und Miete bar bezahlten. Aus diesen wurden diejenigen herausgefiltert, die beim Einwohnermeldeamt verzeichnet waren, die einen Führerschein besassen oder als Fahrzeughalter registriert waren oder die Kindergeld bezogen. Übrig blieben schliesslich die Wohnung eines Drogenhändlers und eine konspirative Wohnung der RAF.

Auch heute funktioniert die internationale Terrorbekämpfung noch so, nur dass die Datenmengen unendlich viel grösser geworden sind – und die Suchmerkmale ethisch fragwürdiger, weil zum Beispiel die Herkunft aus dem arabischen Raum jemanden bereits zu einem potenziellen Terroristen macht. Und selbst wenn das Verfahren eine extrem hohe Genauigkeit hat: Wird es auf Dutzende Millionen von Menschen angewandt, ist bereits eine Fehlerquote von 1 Prozent verheerend. Dabei ist keineswegs garantiert, dass der eine Terrorist, der den verheerenden Anschlag plant, auch gefasst wird. Denn es gibt bei all diesen Verfahren viele Fehlerquellen, wie Informatikprofessor Donald Kossmann sagt – sei das auf der Ebene der Informatik oder auf der konzeptuellen Ebene.

Problematisch ist, dass Algorithmen Menschen stets in Gruppen und Klassen einteilen.

«Aus jedem Algorithmus, den sie verwenden, können sie Richtiges oder Falsches schliessen», sagt Dirk Helbing. Problematisch ist, dass Algorithmen Menschen stets in Gruppen und Klassen einteilen und nach Kriterien sortieren. Dadurch lassen sie sich zwar gezielter bewerben, es führt aber auch dazu, dass letztlich jeder Mensch zum Spezialfall wird, jeder seine eigene Minderheit. Bereits jetzt analysieren Krankenversicherungen in den USA ihre Kunden über zahlreiche Variablen, identifizieren Menschen mit geringen Risiken und richten ihre Policen und deren Vermarktung nach ihnen aus. Der solidarische Grundgedanke einer Versicherung wird so ausgehebelt – und die soziale Kluft vertieft.

Wenn Algorithmen zunehmend die Physik unseres Denkens sind, eine Art Sprache, mit der wir die Welt der Daten beschreiben, dann müssen wir uns fragen, wie sie unser Denken beeinflussen. So wie unsere Sprache vorgibt, wie wir die Welt beschreiben können, und dadurch definiert, in welchen Kategorien wir sie überhaupt wahrnehmen, beginnen Algorithmen, unsere Welt zu beschreiben und zu formen. Das Grundproblem ist, dass ein normaler Mensch zumindest eine Sprache beherrscht. Aber nur die wenigsten wissen, wie ein Algorithmus funktioniert. Und deshalb verstehen auch die wenigsten den Prozess, wie Algorithmen die Welt formen, in der wir uns bewegen. Die Technologien selber sind weder gut noch schlecht. Die Frage ist, was wir damit tun. Die Verantwortung dafür, das Richtige zu tun, liegt allein in unseren Händen. (Tagesanzeiger.ch/Newsnet)

Erstellt: 07.09.2013, 08:34 Uhr

Artikel zum Thema

Zürich – die Pionierstadt der Open-Data-Bewegung

Die Behörden geben ausgewählte Datensätze sukzessive zur öffentlichen Nutzung frei. Open-Data-Anwendungen sollen mittelfristig wirtschaftliches Wachstum generieren. Mehr...

Open Data soll Tausende Arbeitsplätze schaffen

Hintergrund Am 16. September lanciert der Bund ein Open-Data-Internetportal. Verschiedene Bundesämter stellen dort der Öffentlichkeit Behördendaten frei verwendbar über eine zentrale Plattform zur Verfügung. Mehr...

Big Data wird Big Business

Hintergrund Von Robotern und Software gesteuerte Maschinen gewinnen Quizshows, entwickeln Medikamente und Kochrezepte. Und vor allem kann man mit ihnen bald sehr viel Geld verdienen. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Abo

Abo Digital - 26 CHF im Monat

Den Tages-Anzeiger unbeschränkt digital lesen, inkl. ePaper. Flexibel und jederzeit kündbar.
Jetzt abonnieren!

Kommentare

Weiterbildung

Gamen in der Schule

Die Schule bereitet Kinder auf die Arbeitswelt vor. Das Rüstzeug soll auch spielerisch vermittelt werden.

Die Welt in Bildern

Schlangenfrauen: Kontorsionistinnen während einer Aufführung im Cirque de Soleil in Auckland. (14. Februar 2019)
(Bild: Hannah Peters/Getty Images) Mehr...