Ist das wirklich Donald Trump?
Wahr oder falsch? Bereits heute kann fast alles und jeder manipuliert werden. Und die Zukunft hält noch Extremeres bereit.

Stellen Sie sich vor, Sie sehen Donald Trump am Fernsehen sprechen. Nur: Eigentlich gab es die aufgezeichnete Medienkonferenz nie. Die Videoaufnahme wurde nie gemacht. Trump war gar nicht am Fernsehen und hat sich zu den besprochenen Themen nie geäussert. «Fake-News», wie es der US-Präsident immer wieder gerne formuliert, im wahrsten Sinne des Wortes. Doch ist das möglich? Kann diese Vorstellung Realität sein?
Seit Januar sorgt eine scheinbar harmlose Mobile-App für Furore: Faceapp. Damit kann man – oberflächlich betrachtet – nicht viel mehr tun, als es schon mit anderen ähnlichen Apps in der Vergangenheit möglich war. Der User kann sich fotografieren, die Fältchen glätten, sich altern oder ein Lächeln ins Gesicht zaubern lassen – und sogar das Geschlecht wechseln. Spass, eben. Im Falle von Donald Trump sieht das dann so aus:

Trump: Original, lächelnd, als ältere Dame, jung (Bild: Faceapp)
Die Bilder an sich sind, wenn auch verblüffend realistisch, nicht komplett überzeugend, das ist klar. Das könnte man mit Photoshop besser machen, könnte ein Einwand lauten. Das Verwunderliche, Imposante an diesen Bildern ist nicht unbedingt die optische Qualität, sondern, dass sie nicht von Menschenhand geschaffen worden sind. Sie wurden auch nicht einfach mit einem Filter überlagert, wie wir es etwa von Snapchat kennen.
Verantwortlich für die Bildmanipulation ist eine künstliche Intelligenz, die mittels künstlichem neuronalem Netz verschiedenste Dinge berechnen kann. «Deep Learning», tief gehendes Lernen, nennen Forscher diese Form von maschinellem Lernen. Das heisst also, dass ein Computer mittels Algorithmus etwas «lernen» kann. In diesem Fall zum Beispiel, dass er lernen kann, zu berechnen, wie Donald Trump aussähe, würde er im Moment des Fotos lächeln, statt ernst zu schauen.
«Nur zum Spass»
Yaroslav Goncharov, der Entwickler von Faceapp sagtegegenüber dem Tech-Magazin «Recode», eigentlich habe er nur ein Bild einer Freundin bearbeiten wollen, sei aber zu faul gewesen, um stundenlang in Photoshop rumzubasteln. Also habe er es einfach mal mit einem Algorithmus probiert, da er als Ex-Microsoft-Ingenieur sowieso schon einen Hintergrund in Deep Learning habe. Das Resultat war verblüffend. Besser als das, was man bis anhin kannte.
«Meine Freunde waren umgehauen», sagte Goncharov, «es sah aus wie pure Magie.» Bisher sahen die meisten Bilder, die mittels Deep Learning generiert wurden, noch nicht fotorealistisch aus und sind, so bemerkt es «Recode», meist in niedriger Auflösung vorhanden. Forscher an der University of Wyoming haben zum Beispiel solche Bilder aus dem Nichts erschaffen.

Doch machen wir jetzt zwischendurch nach so viel Wissenschaft den Realitäts-Check. Raten Sie doch, ohne grosses Nachdenken: Sind diese Videos echt oder gefälscht? Und falls Sie die Videos für gefälscht halten, überlegen Sie sich, was an den Videos denn manipuliert sein könnte. Falls Sie glauben, die Videos sind vollkommen echt, wieso? Vielleicht führen wir Sie jetzt auch einfach absichtlich an der Nase rum. Aber genug der Fragen. Raten Sie:
Die CSAIL-Forscher am MIT sehen darin kein Problem für die Zukunft. Das Ganze «ist mehr als nur ein cleverer Computertrick», geben sie zu, sehen Anwendungen aber primär im Unterhaltungsbereich. Damit könnten zum Beispiel Soundeffekte für Filme oder TV-Serien hergestellt werden. Noch seien die Geräusche zwar nicht perfekt, der qualitative Weg nach oben sei aber offen.
Einen Schritt weiter geht das Start-up Lyrebird, schreibt die «MIT Technology Review». Für ihren Algorithmus brauchen die Forscher weniger als eine Minute Ton einer Stimme, um sie dann bereits erschreckend echt imitieren zu können. Auch jetzt ist noch klar, die Klänge sind noch nicht echt. Lyrebird gibt aber zu bedenken: Ihre Technologie ist das Ergebnis mehrerer Monate Forschung. Das, was Lyrebird hier entwickelt, ist erst der Anfang. Und der klingt so:
Nicht erkannt? Es handelt sich dabei um die imitierten Stimmen von Barack Obama, Donald Trump und Hillary Clinton.
«Gefährliche Konsequenzen»
Lyrebird geht, anders als die MIT-Forscher, aber auf die ethischen Implikationen seiner Entwicklung ein, und wirft damit eine der drängendsten Fragen emergenter Technologie auf: Wie verändert sie uns? Und in diesem spezifischen Fall: Wie verändert sie unseren Umgang mit Information? In seinem Ethik-Statement schreibt Lyrebird: «Sprachaufnahmen werden heute in unseren Gesellschaften als überzeugende Beweismittel wahrgenommen», heisst es dort.
«Unsere Technologie stellt die Gültigkeit von Sprachaufnahmen als Beweismittel infrage.»
«Unsere Technologie stellt die Gültigkeit solcher Beweismittel infrage, da sie es erlaubt, Audioaufnahmen einfach zu manipulieren.» Und tatsächlich: Man denke an das infame «Grab 'em by the pussy»-Statement von Donald Trump, eine Sprachaufnahme, die nur per Zufall von der «Washington Post» erlangt und anschliessend publiziert wurde und Donald Trumps privaten Umgang mit Frauen infrage stellte und zu vehementen Sexismusvorwürfen führte. Sollte Lyrebirds Technologie tatsächlich in den nächsten Jahren reifen und omnipräsent werden, wird es tatsächlich alles andere als trivial werden, Fälschungen einfach aufzudecken.
Tatsächlich sagt Lyrebird auch: «Die Konsequenzen [unserer Technologie] könnten gefährlich sein. Damit könnten zum Beispiel Diplomaten irregeführt, Betrug begangen und Identitäten gestohlen werden.» Selber stiehlt sich das Start-up aber aus der Verantwortung, indem es die Technologie und Entwicklung als unausweichlich beschreibt. «Wir hoffen, dass bald allen Menschen bewusst ist, dass solche Technologie existiert.» Man wolle die Menschheit darauf aufmerksam machen, dass Tonaufnahmen in Zukunft keine gültige Evidenz mehr sein werden.
Und es geht noch weiter. Auch Videofälschungen werden immer einfacher zu machen. Das bewies vor einem Jahr bereits Face2Face – allerdings noch ohne Deep Learning. Die Technologie der Stanford-Forscher erlaubt es, Köpfe und Mimiken auszutauschen:
Gegenüber der «MIT Technology Review» sagte Lyrebird-Mitgründer Alexandre de Brébisson, in Zukunft werde es vermutlich möglich sein, ganze Videos von Grund auf zu fälschen. Noch sei man aber nicht so weit. Klar ist aber: Fälschungen aufzudecken, wird in Zukunft noch schwieriger, als es ohnehin schon ist.
Dieser Artikel wurde automatisch aus unserem alten Redaktionssystem auf unsere neue Website importiert. Falls Sie auf Darstellungsfehler stossen, bitten wir um Verständnis und einen Hinweis: community-feedback@tamedia.ch