Jetzt kommt ein Gegengift gegen Fake-Videos

Gefälschte Videos drohen die Wahrheit im Internet endgültig zu begraben. Weltweit vernetzte Computer-Nerds wollen das verhindern.

Ueli Maurer, Karin Keller-Sutter, Alain Berset – oder Mona Lisa? Mit einem Mausklick wird aus den Bundesräten eine Mona Lisa. Erstellt mit Technologie der Firma Reflect.tech. Fotos: PD

Ueli Maurer, Karin Keller-Sutter, Alain Berset – oder Mona Lisa? Mit einem Mausklick wird aus den Bundesräten eine Mona Lisa. Erstellt mit Technologie der Firma Reflect.tech. Fotos: PD

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Am Anfang stand der Sex. Genauer: die Pornografie. Ende des Jahres 2017 tauchte im Onlineforum Reddit.com eine Bedienungsanleitung zur Herstellung von gefälschten Videos auf. Verfasst wurde die Anleitung von einem anonymen Nutzer namens Deepfakes. Sie stützte sich auf Techniken der künstlichen Intelligenz und war so einfach gestaltet, dass selbst Laien damit in der Lage waren, das Gesicht ihrer Lieblingsberühmtheit in ein beliebiges Onlinevideo zu pflanzen.

Und genau das tat die grosse, anonyme Reddit-Nutzergemeinschaft. In den meisten Fällen waren es weibliche Hollywood-Darsteller, die diese «Behandlung» über sich ergehen lassen mussten. Die Gesichter von Emma Watson oder Scarlett Johansson landeten gleich reihenweise auf den Körpern von Pornodarstellerinnen. Vereinzelt traf es aber auch Männer. So tauchte zum Beispiel ein Video des Schweizer Tennisspielers Roger Federer beim Gruppensex auf.

Properer Tennisprofi als vermeintlicher Pornostar

Natürlich hat Roger Federer nicht wirklich einen Erotikfilm gedreht. Die anonymen Reddit-Nutzer fanden es eben besonders lustig, aus dem properen Tennisstar einen vermeintlichen Pornostar zu machen. Zum Glück für Federer sind die Videos nicht mehr im Onlineforum zu finden. Am 7. Februar letzten Jahres reagierten die Administratoren von Reddit und löschten alle gefälschten Videos von ihrer Plattform. Wer heute bei Reddit nach solchen Inhalten sucht, trifft statt auf pornografisches Material auf Einträge enttäuschter Nutzer, die der entfernten Celebrity-Porn nachtrauern.

Für Roger Federer und Konsorten weit weniger angenehm: Bei Reddit sind die gefälschten Videos zwar weg. Doch die Büchse der Pandora ist offen, und sie lässt sich nicht mehr schliessen. Mittlerweile sind gefälschte Videos – Deep Fakes – überall im Internet zu finden. Gefälschte Filme, die kaum als solche zu erkennen sind. Der Code dafür steht weiterhin auf einer Entwicklerplattform öffentlich zur Verfügung und wurde bereits tausendfach heruntergeladen.

Das gesellschaftliche Problem mit Deep Fakes beginnt damit erst. Sie kursieren heute nicht mehr in öffentlich zugänglichen Foren, sondern in den halb öffentlichen Orten des Internets: in privaten Facebook- oder Whatsapp-Gruppen. Welche Kraft sie ent­wickeln, erlebte zum Beispiel die politische Partei Socialistische Partij Anders (s.pa) in Belgien. Sie produzierte zu Marketingzwecken ein eigenes getürktes Video. Es zeigte Donald Trump bei einer Pressekonferenz.


Deepfakes: So leicht lassen sich Gesichter in Videos fälschen

Was, wenn man Videos nicht mehr trauen kann? Timo Grossenbacher im Interview. (Video: Lea Blum)


Darin sagte der künstlich generierte amerikanische Präsident: «Wenigstens hatte ich die Eier, aus dem Pariser Klimaabkommen auszutreten. Das solltet ihr Belgier auch tun. Ihr belastet das Klima sogar noch mehr als früher.» Auf Social Media reagierten Dutzende Belgier gehässig. Mal um Mal musste die Socialistische Partij Anders erklären, dass das Video eine Fälschung sei; hergestellt mit einem künstlich intelligenten Algorithmus, der Trumps Gesicht und seine Stimme perfekt imitiert habe. Doch viele wollten partout nicht glauben, dass sie einer Fälschung aufgesessen waren. Die linke Partei war über Wochen mit Schadensbegrenzung beschäftigt.

Denn selbstverständlich lassen sich nicht nur die Gesichter von Film- oder Tennisstars auf die Körper von Erotikdarsteller und -darstellerinnen projizieren. Dasselbe funktioniert natürlich auch bei Politikern, um ihnen etwa politisch brisante Aussagen in den Mund zu legen.

«Das Szenario ist gerade in Indien sehr, sehr real.»Vijay Thaware

Man stelle sich vor: Auf dem Höhepunkt der Proteste der Gelbwesten («gilet jaunes») hätte sich der französische Präsident Emmanuel Macron in einem gefälschten Video über die Protestierenden lustig gemacht. Vielleicht hätte es bei den gewalttätigen Demonstrationen viel mehr Tote gegeben. Oder jemand würde in einer politisch volatilen Gegend der Welt via eine Whatsapp-Gruppe gefälschte Videos in Umlauf bringen. Zum Beispiel in Indien. Dort könnte etwa ein geistlicher Führer der Hindus die muslimische Minderheit als Hunde bezeichnen. In der explosiven Situation an der Grenze zwischen Indien und Pakistan wären gewalttätige Auseinandersetzungen vorprogrammiert.

«Das Szenario ist gerade in Indien sehr, sehr real», sagt Vijay Thaware. Der 30-jährige Inder sass kürzlich im Schneidersitz am Boden in den Gängen der Londoner Messehallen. Neben ihm Niranjan Agnihotri (23). Thaware ist Statistiker, Agnihotri Computerwissenschaftler. Eben haben die beiden an der weltweit führenden Hackerkonferenz Blackhat über das zerstörerische Potenzial von Deep Fakes referiert.

Dass sich in Indien ein digitaler Sturm zusammenbraut, beobachten Thaware und Agnihotri schon seit zwei Jahren. In diesem Zeitraum ist der Videokonsum auf Smartphones in die Höhe geschnellt wie sonst nirgendwo auf der Welt. Das hat mit einem unwiderstehlichen Angebot der Mobilfunkfirma Reliance Jio Ende 2016 zu tun: ein Jahr lang gratis Internet für alle 1,4 Milliarden Inder. Und zwar nicht in irgendeiner minderwertigen Geschwindigkeit, sondern in 4G. Dieser Mobilfunkstandard ist selbst in der hoch entwickelten Schweiz noch nicht überall im Einsatz.

Geht eine Fälschung im falschen Moment viral, könnten Deep Fakes den Ausgang von demokratischen Wahlen gewichtig beeinflussen.

Das Kalkül von Reliance ging auf. Nach einem Jahr Gratisinternet begann die Firma Geld für den Mobilfunk zu verlangen. Viele sprangen wieder ab. Doch von der Südspitze des Landes bis an die nepalesische Grenze, von Kalkutta ganz im Osten Indiens bis nach Mumbai an der Westküste zählt Reliance Jio heute 250 Millionen zahlende Kunden.

Während Indien seine neue digitale Freiheit feierte, wuchsen die Sorgen von Vijay Thaware und Niranjan Agnihotri. Beide stammen aus der Mittelschicht. Ihre Eltern sind Bauingenieure und Englischlehrer. Thaware und Agnihotri sind damit gross geworden, dass die erste Informationsquelle stets die sorgfältig geprüften Nachrichten in den Tageszeitungen waren. Tatsächlich ist Indien bis heute ein Zeitungsland. Die Leserschaft der grössten Zeitung «Dainik Jagran» beträgt täglich 70 Millionen Menschen.

Das Medienverhalten der Inder verändert sich rasant

Doch das Medienverhalten der Inder verändert sich rasant. Nicht mehr die Zeitung steht an erster Stelle, sondern Smartphones. «Dasselbe Verhalten erleben wir ja auch an uns selber», sagen Thaware und Agnihotri. Dank der ultraschnellen Datenleitung seien Facebook, Whatsapp und Youtube plötzlich viel wichtiger als «The Times of India», die «Dainik Jagran» oder die «Hindustan Dainik». Im Grunde erlebt Indien im Zeitraffer das, was in Europa und in den USA über die letzten 20 Jahre geschehen ist. Nachrichten werden nicht mehr primär auf Zeitungspapier verbreitet, sondern schneller und kostengünstiger auf kleinen Smartphone-Bildschirmen.

In den geschlossenen Facebook- oder Whatsapp-Gruppen tauchen seit Ende 2017 vermehrt auch Deep Fakes auf. Es handelte sich wie auf Reddit, dem eingangs erwähnten Onlineforum, zunächst um gefälschte Pornos. In der Regel nicht mit den Gesichtern amerikanischer Schauspielerinnen, sondern eher mit denjenigen bekannter Bollywood-Grössen. Doch bereits sind erste Fälschungen mit lokalen Politikern hinzugekommen. In der Regel waren es harmlose, oft witzige Videos, die von blossem Auge einfach als Fälschung zu identifizieren sind.

Klügere künstliche Intelligenz als Gegengift

Thaware und Agnihotri amüsierten die Videos allerdings gar nicht. Im Gegenteil. «Für uns sind diese Videos Gift», sagt Agnihotri. Sie erkannten ein gigantisches politisches Missbrauchspotenzial. Sie sind überzeugt: Geht eine Videofälschung im falschen Moment viral, könnten Deep Fakes den Ausgang von demokratischen Wahlen entscheidend beeinflussen. Gerade in Indien.

Der Computerwissenschaftler und der Statistiker wollten etwas tun. Sie entwickelten eine Hypothese: Wenn es künstliche Intelligenz gelänge, solche Videos zu bauen, sollte es doch auch möglich sein, mit klügerer künstlicher Intelligenz gefälschte Videos als solche zu entlarven. In anderen Worten: Sie versuchten, für das Gift ein Gegengift zu finden.

Klitzekleine Fehlerin der Software

Thaware und Agnihotri nahmen in ihrer Freizeit, beide arbeiten heute in der indischen Stadt Pune bei der US-Sicherheitsfirma Symantec, die Software auseinander, mit der Deep Fakes entwickelt werden. Sie entdeckten klitzekleine Fehler in den mit künstlicher Intelligenz hergestellten Gesichtern. Der falsche Donald Trump trug zum Beispiel zwei linke Augenbrauen; die Augen des falschen Schauspielers Nicolas Cage waren unterschiedlich farbig.

Um ihre Computer darin zu schulen, diese Fehler zu entdecken, entwickelten Thaware und Agnihotri eine eigene Bilddatenbank. Sie bestand aus nachweislich echten Bildern des US-Präsidenten Donald Trump und aus solchen des Hollywood-Schauspielers Nicolas Cage. Diese Standbilder glichen sie dann mit den Videos ab. Schon nach kurzer Zeit spuckte ihr Algorithmus interessante Resultate aus. Mit einer Trefferquote von 72 Prozent war er in der Lage, falsche von echten Videos zu unterscheiden. «Wir verwendeten dafür Gratisserver von Google und unsere eigenen, total veralteten privaten Notebooks», sagt Agnihotri, «mit dem Einsatz von leistungsfähigeren Rechnern, mit einer grösseren, professionelleren Bilderdatenbank und ausgefeilteren Algorithmen lässt sich die Erfolgsquote entscheidend verbessern.»

Die Blinzelfrequenzentlarvt die Fälschung

Diese frühen Erfolge haben Forscherteams mit viel mehr Mitteln inspiriert. Im Juni präsentierten Computerwissenschaftler der New Yorker Universität Albany den nächsten Durchbruch. Ihre Methode richtete sich auf das Augenblinzelverhalten der Videoprotagonisten. Menschen blinzeln, um ihre Tränenflüssigkeit auf der Hornhaut ihrer Augen zu verteilen. Sie tun das rund 10'000-mal am Tag oder im Schnitt 7-mal pro Minute. Allerdings verändert sich die Blinzelfrequenz je nach Tätigkeit. Wenn Menschen im Gespräch sind, blinzeln sie im Schnitt rund 26-mal; beim Lesen hingegen liegt der Schnitt bei nur 4.

Beim intensiven Studium von Deep Fakes entdeckten die US-Forscher, dass die künstlich hergestellten Gesichter entweder gar nicht oder viel zu schnell blinzelten. Die Wissenschaftler brachten ihre Computer dazu, dieses auffällige Verhalten zu erkennen. Die Muster waren so deutlich, dass sie Deep Fakes mit einer Trefferquote von 99 Prozent überführen konnten.

Ein anderes Forschungsteam aus Edinburgh, Schottland, fokussierte sich auf die Ränder der eingepflanzten Gesichter. Wenn in einem Video ein Gesicht einem Körper aufgesetzt wird, werden seine Ränder leicht unscharf. Von blossem Auge ist der Effekt kaum zu sehen. Doch wenn man nahe genug hineinzoomt, sind die Unschärfen deutlich sichtbar. Die schottischen Computerwissenschaftler brachten ihrem Computer ihre Beobachtung bei und erzielten damit ähnlich gute Ergebnisse wie die Kollegen an der Albany-Universität.

«All die Fehler, die heutige Deep-Fakes-Technologien machen, können künftig ausgemerzt werden.»Sébastien Marcel, Leiter für biometrische Sicherheit und Privatsphäre am Institut Idiap

Mittlerweile forscht gar das US-­Militär mit einem Budget von mehreren Zehn Millionen Franken an der Ent­larvung von Deep Fakes. Es unterstützt Projekte aus der ganzen Welt. 300'000 Franken der Gelder fliessen in die Schweiz, an das Forschungsinstitut Idiap in Martigny im Wallis. Sébastien Marcel ist dort Leiter für biometrische Sicherheit und Privatsphäre. Er leitet das Projekt. Er sagt: «Natürlich ist es unser ganz grosses Ziel, Deep Fakes mithilfe von Technologie zu entlarven.» Wie die Inder Vijay Thaware und Niranjan Agnihotri glaubt auch Marcel, dass es für das Gift Deep Fake ein Gegengift gibt.

Doch aktuell arbeitet Marcel mit seinem Team im Wallis zuerst daran, noch bessere Deep Fakes zu bauen. Er versucht zu antizipieren, in welche Richtung sich die Technologie entwickelt. Nur so könne man die Schwachstellen frühzeitig aufdecken. Der Walliser Forscher sagt: «All die Fehler, die heutige Deep-Fakes-Technologien machen, können künftig ausgemerzt werden.» Marcel arbeitet also etwa daran, gefälschte Videos herzustellen, in denen der US-Präsident eine linke und eine rechte Augenbraue hat; oder in denen er ganz natürlich blinzelt; oder die Ränder der eingepflanzten Gesichter scharf sind.

Wissen um das zerstörerische Potenzial von Deep Fakes: Sébastien Marcel. Foto: PD

«Wir müssen verstehen, wie rasant sich das Gebiet derzeit entwickelt», sagt der Walliser Forscher, «sobald jemand einen Weg zur Identifikation eines falschen Videos gefunden hat, können gewiefte Computerwissenschaftler dem neuralen Netzwerk beibringen, genau diese Fehler nicht mehr zu machen», sagt Sébastien Marcel. Bei Deep Fakes findet derzeit so etwas wie ein Wettrüsten statt.

Aber sind im Internet tatsächlich bereits solche fortgeschrittenen Deep Fakes zu finden? In der Weltpolitik sind Videomanipulationen bisher wenig in Erscheinung getreten. Die Videomanipulation, die dieses Jahr die grössten Wellen warf, betraf einen CNN-Journalisten, der seinen Presseausweis im Weissen Haus abgeben musste, weil er sich während einer Pressekonferenz nicht an die Regeln gehalten hatte. Danach tauchten Videos auf, die zeigten, wie der Journalist mit einer Kung-Fu-Bewegung den Arm einer Trump-Mitarbeiterin weggeschlagen haben soll. Diese hatte versucht, dem Journalisten das Mikrofon abzunehmen. Analysen zeigten, dass das Video an einer entscheidenden Stelle offenbar beschleunigt worden war. Das sagten die Trump-Gegner. Seine Anhänger stritten das ab. Das Video sei echt. Noch immer ist ungeklärt, ob das Video tatsächlich manipuliert worden ist. Die Episode gibt eine Vorahnung davon, was uns blüht, sobald Deep Fakes vermehrt im politischen Mainstream auftauchen. Sie haben das Potenzial, für viel politische Unruhe zu sorgen.

«Im Internet kann mannichts mehr trauen»

«Nein, noch wurde die grosse Politik von fortgeschrittenen Deep Fakes nicht erreicht», sagt Sébastien Marcel, «aber das bedeutet nicht, dass die Technologie nicht bereits existiert und angewendet wird.» Um zu verstehen, wie wir Deep Fakes identifizieren könnten, müssten wir verstehen, wie sie hergestellt werden. Nur dann könnten wir nach ihren Schwachstellen suchen. Marcel sagte: «Wir müssen uns darauf vorbereiten, dass wir als Gesellschaft irgendwann von politischen Deep Fakes überschwemmt werden.»

Zurück an der Blackhat-Hackerkonferenz in London, sind sich die beiden Inder Thaware und Agnihotri bewusst, dass ihre eigene Arbeit mit Deep Fakes längst überholt ist. Das stört sie nicht weiter. «Für uns ist es eine Wahrnehmungsfrage», sagt Thaware. «Wir müssen als Gesellschaft begreifen, dass wir im Internet nichts mehr trauen können – schon gar nicht mehr dem, was wir mit eigenen Augen sehen oder mit eigenen Ohren hören.»

Wenn wir die Quelle eines Videos, einer Tonaufnahme oder eines Textes nicht kennen, sollte man laut den beiden Indern denken: «Vorsicht, Fake-Alarm!»

(Redaktion Tamedia)

Erstellt: 05.01.2019, 11:00 Uhr

Drei Begriffe für ein besseres Verständnis von Deep Fakes

Als Face Swap oder als Face Swapping bezeichnet man das digitale Tauschen von zwei Gesichtern untereinander. Das Gesicht wird dann auf dem Körper des anderen angezeigt. Damit dies gut aussieht, müsste ein einzelner Videokünstler stundenlang an dem manipulierten Film herumdoktern. Mithilfe von künstlicher Intelligenz kann der gesamte Prozess auf wenige Sekunden reduziert werden. Je ausgefeilter die eingesetzten Algorithmen sind, desto schwieriger wird es, den Gesichtstausch zu erkennen.

Neurale Netzwerke sind Informationsverarbeitungssysteme, denen je nach Dateneingabe bestimmte Entscheidungsmuster antrainiert werden können. Das geschieht, indem zwischen einzelnen Datenpunkten Verbindungen gestärkt oder geschwächt werden bzw. ganz verschwinden. Im Grunde sind sie ein Versuch, das Verhalten unseres Gehirns zu imitieren. Sie sind ein wesentlicher Baustein bei der Entstehung von Deep Fakes.

Künstliche Intelligenz bezeichnet den Versuch, menschenähnliche Entscheidungen in einem nicht eindeutigen Umfeld nachzubilden. Also einen Computer so zu bauen oder zu programmieren, dass er eigenständig Probleme bearbeiten kann. Zum Beispiel ein Gesicht des einen Menschen nehmen und auf den Körper eines anderen Menschen pflanzen. (bsk)

Artikel zum Thema

Deepfakes: So leicht lassen sich Gesichter in Videos fälschen

Video SRF-Datenjournalist Timo Grossenbacher zeigt bei der Grafikmesse in Oerlikon die Möglichkeiten und Gefahren der Videomanipulation. Mehr...

Pentagon erklärt Fake-Videos den Krieg

Sie dienen der Desinformation und dem Rufmord: Nun sollen manipulierte Videos direkt beim Hochladen erkannt werden. Mehr...

Firma löst Rätsel um Fake-Videos auf

Video Millionen Nutzer fielen im Internet auf von einer australischen Firma gefälschte Videos herein. Sie waren Teil eines Experiments. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Kommentare

Service

Ihre Spasskarte

Mit Ihrer Carte Blanche von diversen Vergünstigungen profitieren.

Die Welt in Bildern

Hi Fisch! Dieses vor Hawaii gesichtete Hai-Weibchen hatte Ähnlichkeiten mit «Deep Blue», der als grösster bislang gesichteter Weisser Hai gilt. (15. Januar 2019).
(Bild: JuanSharks) Mehr...