Er kennt uns besser als unsere Partner

Der Psychologe Michal Kosinski kann Menschen einschätzen, ohne sie je getroffen zu haben. Was Likes über den Charakter aussagen.

Seine Forschung könne die Freiheit oder gar das Leben bedrohen, sagt Psychologe Michal Kosinski. Foto: Lauren Bamford

Seine Forschung könne die Freiheit oder gar das Leben bedrohen, sagt Psychologe Michal Kosinski. Foto: Lauren Bamford

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Da kommt er also, der Mann, der den Populisten die scharfen Werkzeuge in die Hand gegeben hat. Der schuld sein soll am Brexit und an Trump. Dieser Mann hat strahlend blaue Augen und ein wahnsinnig charmantes Lächeln. Dabei leidet er gerade sehr. «Bitte, sehen Sie darüber hinweg, wenn ich nicht zu hundert Prozent aufmerksam bin», sagt er mit ausgesuchter Höflichkeit, «ich habe seit zwanzig Stunden nicht geschlafen.» Michal Kosinski (35), geboren in Polen, hat studiert in Warschau, promoviert im britischen Cambridge und ist jetzt Professor in Stanford, wirkt nicht wie einer, der das Böse in der Welt befördern will.

Aber was will er eigentlich befördern?

Über Nacht ist der junge Professor aus San Francisco angereist. In einem gläsernen Konferenzzentrum über den Dächern von Berlin soll er über seine neueste Forschung sprechen. Sein Fachgebiet: die Psychometrie – die Vermessung der Seele. Der Psychologe entwickelt Algorithmen, mit denen er die Persönlichkeit von Menschen liest, die er nie zuvor getroffen hat. Er sagt, er könne aus den Daten, die Menschen im Internet hinterlassen, ihr Wesen erfassen; und aus Fotos lese er intime Details. Ist jemand ein Trump-Wähler? Raucht er? Ist er schwul? Ein Christ? Und wie steht er zu Tütensuppe? Mithilfe seiner Algorithmen kann Kosinski solche Dinge mit zum Teil frappierender Treffsicherheit über Menschen sagen, von denen er nur das sieht, was sie im Netz so treiben. Und es gibt Leute, die behaupten, dass die Welt ohne Kosinskis Forschung heute eine andere wäre.

In Berlin ist er nicht gerade angetreten, diesen Eindruck zu zerstreuen. Schnell noch eine Cola, um sich wach zu halten. Dann sprudelt er los, als wäre er selbst eine Dose, die jemand vor dem Öffnen zu lange geschüttelt hat. Grauer Anzug, lila Hemd, lila Krawatte, so wirbelt er über die Bühne, redet doppelt so lang wie vorgesehen, gefühlt aber halb so kurz – so unterhaltsam und, ja, so erstaunlich wie erschütternd ist das, was er erzählt. Glaubt man Kosinski, dann steht nicht weniger als «das Ende der Privatheit» bevor.

Die Macht der digitalen Spuren

Menschen sind ja auch ohne Algorithmen ganz gut darin, das Wesen ihres Gegenübers zu erfassen. Kosinski selbst zum Beispiel: Er ist offen, verträglich und extrovertiert. Er ist einer, der gerne schillert und bewundert wird und der mit seinen plakativen Botschaften nicht ganz an das unter Wissenschaftlern übliche Quantum an Gewissenhaftigkeit heranreicht. Oder? Ja, sagt er lächelnd, erste Einschätzungen von anderen stimmten oft: «Menschen müssen andere Menschen einordnen können.» Wird einer rasch aggressiv, muss ich mich also vor ihm hüten? Ist er vertrauenswürdig? Oder flatterhaft? Das zu spüren, kann wichtig sein fürs Überleben.

Doch den Profiler-Qualitäten des Durchschnittsmenschen sind Grenzen gesetzt. Oft genug lässt er sich täuschen. Man kann jemandem eben nur vor den Kopf gucken, lautet ein altes Sprichwort. Es stammt aus einer Zeit, bevor Michal Kosinski auf den Plan trat. Und bevor Menschen begannen, durch ihre Aktivitäten im Internet digitale Spuren unfassbaren Ausmasses zu hinterlassen. 500 Megabyte pro Kopf und Tag waren es 2012, im Jahr 2025 sollen es schon 62 gigantische Gigabyte sein. Aus diesen Daten, die wir oft unbewusst generieren, liest Kosinski Gewohnheiten und Vorlieben.

Mit 93-prozentiger Wahrscheinlichkeit können seine Algorithmen sagen, ob eine Frau oder ein Mann die Spuren hinterlassen hat, berichtet Kosinski. Zu 82 Prozent, ob Christ oder Muslim, zu 85 Prozent, ob Demokrat oder Republikaner, zu 65 Prozent, ob single oder liiert. Die Algorithmen erkennen 88-prozentig, ob ein Mann schwul ist, zu 75 Prozent, ob eine Frau lesbisch ist, und zu 60 Prozent, ob die Eltern einer Person an ihrem 21. Geburtstag noch zusammen waren. Selbst das ist noch besser, als eine Münze zu werfen.

Wer Menschen durchschaut, kann sie auch manipulieren.

So überraschend sich das zunächst anhört: Dass solche Prognosen möglich sind, lässt sich leicht erklären. Auch ohne Computer treffen Menschen solche Aussagen. Wie mag wohl jemand sein, der ein Fan von «Hello Kitty» ist? Die Wahrscheinlichkeit für «weiblich» und «jung» ist hoch. Das Mitglied der US-Waffenlobby NRA? Wohl ein Trump-Wähler. Und ein Fan von Lady Gaga? Eher extrovertiert als introvertiert.

Algorithmen aber können mehr – weil sie nicht nur über die Erfahrungen verfügen, die ein Mensch in seinem Leben sammelt. Wenn Computer Millionen Datenspuren auswerten, sehen sie ganz neue Verbindungen. «So werden intime psychodynamische Eigenschaften mit hoher Wahrscheinlichkeit vorhersagbar», sagt Kosinski.

Seinem Algorithmus genügt die Auswertung von zehn Likes, um die Persönlichkeit eines Menschen besser einzuschätzen, als es seine Kollegen können. Nach 100 Likes schlägt der Computer die Angehörigen und die Freunde. Und 250 Likes reichen, um besser zu sein als der Lebenspartner. «250 Likes sind schnell gesammelt», sagt Kosinski. «Und man muss auch nicht auf Facebook sein, um solche Spuren zu hinterlassen, das passiert überall im Internet.»

Im Netz auffällig zurückhaltend

Das Problem ist: Wenn das funktioniert, kann nicht nur ein smarter Professor in Kalifornien die Persönlichkeit anderer lesen. Dann können das auch Diktatoren, der Wahlkampfleiter von Donald Trump und die Verkaufsstrategen bei Amazon. Wer Menschen durchschaut, kann sie auch manipulieren. «Es ist wie ein Tornado», warnt Kosinski. «Je besser wir uns darauf vorbereiten, desto sicherer ist es für uns alle.»

Deshalb hat er sie auch abgewiesen, die Männer von der Datenanalysefirma Cambridge Analytica, die gleich nach seiner ersten wichtigen Publikation bei ihm vorbeikamen. Sie wollten ihn abwerben, sein Können nutzen für die Menschen-Manipulation, die sich Werbung nennt. Später behaupteten sie, es auch ohne ihn geschafft zu haben: Mithilfe seiner Methoden hätten sie Trump zum Präsidenten gemacht und die Briten zum Brexit bewegt, erzählte Firmenchef Alexander Nix dem «Magazin». Während des US-Wahlkampfs hätte seine Firma 175 000 verschiedene Posts verschickt. Sie variierten in Details, um die Empfänger ihrer Psyche entsprechend für Trump einzunehmen.

Der Artikel ging um die Welt, und viele Menschen diskutierten über die Frage, was dran ist an der psychologischen Raffinesse von Trumps Wahlkampf. Kosinski selbst ist skeptisch: «Donald hat nie angerufen, um sich bei mir zu bedanken», sagt er grinsend. Grundsätzlich aber seien Manipulationen möglich: Wer Menschen ausspäht, kann ihnen gezielt die Botschaften senden, die bei ihnen wirken werden. Vielleicht lässt sich auf diese Art aus einer überzeugten Grünen keine SVP-Wählerin machen, aber manchmal reicht ein Quäntchen Unsicherheit oder Bestätigung, um jemanden, der zwischen zwei Parteien steht, auf eine Seite zu lenken.


«Ich weiss, was man alles daraus lesen kann.»

Im November hat der Psychologe sehr konkret gezeigt, wie das geht: Er hat 3,5 Millionen Facebook-Usern Kosmetikwerbung zugespielt; manche bekamen Anzeigen zu sehen, die auf ihre Persönlichkeit zugeschnitten waren. Wenn der Algorithmus sie als extrovertiert einstufte, sahen sie eine ausgelassen Tanzende mit pinkfarbenem Lippenstift; den Introvertierten wurde eine verhalten Lächelnde mit Haarband und zartrosa Teint präsentiert. Die Gruppe, die für sie passende Werbung erhielt, kaufte 50 Prozent mehr von der Kosmetik.

Seine persönlichen Konsequenzen hat Michal Kosinski längst gezogen: Er hält sich im Netz auffallend zurück. Wie alt er genau ist? Wo er geboren wurde? Solche Informationen bekommt man nur persönlich von ihm. Auf Twitter hat er nur 445-mal etwas geschrieben, nur 211-mal etwas geliket. «Ich weiss, was man alles daraus lesen kann», sagt er.

Künftig aber, meint Kosinski, werde nicht einmal mehr Zurückhaltung reichen, um sich zu schützen. «Selbst wenn man sein Handy zu Hause lässt, läuft man immer noch auf der Strasse und wird von Videokameras gefilmt.» In China werten staatliche Stellen solche Aufnahmen schon aus: Wer geht wann wohin, das weiss der grosse Führer. Bald aber könnten Diktatoren sogar aus den Gesichtern lesen, warnt Kosinski. Es ist sein neuestes Forschungsprojekt. Und dessen praktische Umsetzung wäre der nächste Schritt zur Durchleuchtung. Ob einer homosexuell ist, will Kosinski bereits mit guten Trefferquoten am Gesichtsausdruck lesen können, an der Art der Brille, am Haarschnitt. Und noch viel mehr werde möglich sein: Aussagen über Intelligenz, politische Orientierung und kriminelle Ambitionen.

Rückkehr der Physiognomie?

Für diese Thesen erhält Kosinski gerade wieder reichlich Gegenwind. So etwas sei doch Blödsinn, argumentieren Kritiker. Wissenschaftler hätten sich schon vor 100 Jahren vergeblich in Physiognomie versucht. Kosinski nimmt es sportlich, jedenfalls tut er so. «Es hat heute niemand Tomaten geworfen», sagt er und lacht. «Offenbar ist kein Sozialwissenschaftler im Publikum. Das ist bei denen nämlich ein Tabu, vom Äusseren auf das Innere zu schliessen.» Es gehe bei seinen Analysen jedoch nicht, wie vor 100 Jahren, um die Linie der Nase oder die Form der Stirn. Die Computer ziehen ihre Schlüsse aus der Vermessung von Tausenden Punkten im Gesicht von vielen Tausend Personen. «Und da sind viele Schlüsse möglich.»

Natürlich machen Computer auch Fehler. «Google Maps liegt manchmal falsch», sagt Kosinski, «aber ich weiss auch, was ich von einer Wegbeschreibung zu halten habe, die von meinen Freunden stammt.» Er ist, man sieht es, ein bisschen müde von dieser Diskussion. Mag sein, dass die Aussagekraft mitunter noch zu wünschen übrig lasse. Aber die Algorithmen würden besser. Und den Diktatoren, die Schwule ins Gefängnis werfen, sei es im Zweifel egal, ob ihre Analyse nur zu 80 Prozent stimmt.

Es sind schreckliche Szenarien, die Michal Kosinski da entwirft. Manchmal kokettiert er auch damit, wenn er etwa unter seine Publikationen schreibt: «Diese Forschung könnte das individuelle Wohlbefinden, die Freiheit oder sogar das Leben bedrohen.» Wenn das Wirklichkeit wird – ist er dann nicht schuld daran? Er sagt: «Ich glaube nicht, dass das eine faire Frage ist.» Algorithmen würden bereits von Regierungen und Institutionen benutzt, er treibe das nicht voran. «Diese Dinge werden getan. Ich warne nur davor, warum sollte es mich verantwortlich machen?» Fast verletzt wirkt er dabei. Er wolle doch nur wissen, was alles möglich ist. Damit Gesellschaften klären könnten, was möglich sein darf.

(Tages-Anzeiger)

Erstellt: 07.03.2018, 18:34 Uhr

Artikel zum Thema

Diese Firma weiss, was Sie denken

Cambridge Analytica kann mit einer neuen Methode Menschen anhand ihrer Facebook-Profile minutiös analysieren. Und verhalf so Donald Trump mit zum Sieg. Mehr...

«Cambridge Analytica bleibt jeden Beweis schuldig»

Hat Big Data Donald Trump zum Wahlsieg verholfen? Das Netz diskutiert derzeit einen «Magazin»-Artikel zu diesem Thema. Mehr...

Die Seele des Wählers

Infografik Gewissenhafte Menschen wählen bürgerlich, offene links, besorgte bevorzugen die CVP. Unsere Persönlichkeit beeinflusst politische Entscheidungen. Das freut die Wahlkampfstrategen. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Weiterbildung

Lohncheck in Pflegeberufen

Qualifiziertes Pflegepersonal ist rar. Eine Pflegeinitiative setzt sich darum für höhere Löhne ein.

Kommentare

Weiterbildung

Banken umwerben Frauen

Weltweit steigt das Privatvermögen von Frauen. Banken zeigen, wie dieses gewinnbringend anzulegen ist.

Die Welt in Bildern

Immer wieder schön: Das Matterhorn spiegelt sich im Morgengrauen im Riffelsee bei Zermatt (22. Juni 2018).
(Bild: Vaelntin Flauraud) Mehr...