Videos sind glaubwürdig – das war einmal

Aufnahmen zu fälschen, wird immer einfacher. Schweizer Forscher wollen den Machern jetzt auf die Schliche kommen.

Verblüffend echt: Auf Instagram kursierte kürzlich ein Video, in dem Mark Zuckerberg über die Weltherrschaft sinniert. Es ist eine Fälschung.

Verblüffend echt: Auf Instagram kursierte kürzlich ein Video, in dem Mark Zuckerberg über die Weltherrschaft sinniert. Es ist eine Fälschung.

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Was ein Video mir zeigt, das muss doch so gewesen sein, meinte man lange Zeit. Heute stimmt diese Annahme nicht mehr. Auch Bewegtbild lässt sich fälschen, man nennt diese manipulierten Videos Deep­fakes. Fortschritte bei der künstlichen Intelligenz machen sie immer besser. Und gefährlicher. Der Zuschauer sieht in einem Deepfake beispielsweise die Rede eines Politikers mit Aussagen, die dieser nie gemacht hat. Kürzlich kursierte ein Video von Facebook-Chef Mark Zuckerberg auf Instagram, in dem Zuckerberg über die Weltherrschaft sinniert. Auch wenn er darüber vielleicht tatsächlich nachdenkt, in einem öffentlichen Video hat er das nicht getan. Die Aufnahme ist eine Fälschung.

Weil Deepfakes eine grosse gesellschaftliche und politische Sprengkraft haben, beschäftigt sich inzwischen sogar das Forschungsinstitut Darpa des US-Verteidigungsministeriums mit ihnen. Am Darpa-Projekt beteiligt ist auch der Schweizer Sébastien Marcel. «Es ist ein Wettrüsten zwischen jenen, die Deepfakes herstellen, und denen, die sie zu entlarven versuchen», sagt Marcel, der am unabhängigen Forschungsinstitut Idiap in Martigny die Gruppe für Biometrie und Datenschutz leitet. «Wir brauchen in diesem Bereich dringend mehr Forschung», sagt der Computerwissenschaftler. Einige interessante Ansätze für die Enttarnung der Fälschungen sind bereits in Entwicklung.

Manipulationsversuche an bewegten Bildern gibt es schon länger, doch die limitierten technischen Möglichkeiten entlarvten sie meist schnell. Seit einigen Jahren jedoch ist die künstliche Intelligenz schlau genug, um Gesichter aus Rechenoperationen zu schaffen und um ein Gesicht recht überzeugend in ein anderes zu verwandeln. Verantwortlich dafür ist ein Verfahren, das «Generative Adversarial Networks», kurz Gan, heisst (siehe Kasten).

Die synthetisch erzeugten Gesichter ermöglichten einen Quantensprung bei den gefälschten Videos. Es ist nun viel einfacher, ein zweites Gesicht, das irgendetwas erzählt, in ein reales Video einzufügen. So basiert auch das Zuckerberg-Video auf einem echten Interview, das der Facebook-Chef einem US-Sender vor zwei Jahren gab. Allerdings sprach er in diesem Interview nicht von Weltherrschaft. Diese Worte hat ein Imitator gesprochen; eine entsprechende Software hat die Mimik und Lippenbewegungen Zuckerbergs so verändert, als sage er diese Worte tatsächlich.

Vor allem in den sozialen Medien haben Deepfakes ein grosses Potenzial, falsche Informationen zu verbreiten. Methoden, sie zu enttarnen, sind deshalb dringend gesucht. «Es gibt grundsätzlich zwei verschiedene Methoden, die gefälschten Videos zu entlarven», sagt der deutsche Medienforensiker Christian Riess von der Universität Erlangen, der an mehreren Studien zum Thema beteiligt ist.

Gefälschte Fotos sind einfacher zu entlarven als Bewegtbilder

Die künstliche Intelligenz ist allerdings ein mächtiger Gegner. Geht es ums Rechnen und ums Austesten von Möglichkeiten, kann kein Mensch mit dem maschinellen Lernen mithalten. Zwar sei es möglich, der künstlichen Intelligenz mit einem anderen KI-System auf die Pelle zu rücken, also mithilfe von maschinellem Lernen Fehler in jenen Systemen aufzuspüren, welche die Videos kreieren. «Doch damit hinken wir der Entwicklung immer einen Schritt hinterher», sagt Riess, weil ein Verfahren jeweils erst dann enttarnt werden könne, wenn es bereits kursiere. Noch im vergangenen Jahr war beispielsweise die Tatsache, dass Gesichter in den Videos kaum blinzelten, ein verräterischer Anhaltspunkt dafür, dass ein Video künstlich erschaffen wurde. Doch inzwischen haben die Deepfake-Macher auch diese Hürde genommen. Längst können die synthetisch hergestellten Gesichter ihre Augenlider bewegen.

Auf diesem Porträt ist eine echte Frau zu sehen. Ganz im Unterschied zu den beiden anderen Bildern in diesem Text.

Riess ist überzeugt, dass es deshalb einen fundamentaleren Ansatz braucht. «Wir suchen grundsätzlich nach Spuren, die zeigen, dass an einem Video etwas verändert worden ist», sagt der Medienforensiker. Bei Fotografien funktioniert diese Methode bereits recht verlässlich. Auf der Ebene der einzelnen Pixel kann man erkennen, wenn jemand ein Bild verändert hat, also beispielsweise die Schärfe eines Bereichs anders eingestellt oder irgendetwas wegretuschiert. Denn die JPG-Codierung, also das Format, in dem man das Bild speichert, hinterlässt bei jeder Veränderung ein gewisses Blockmuster, das dann nicht nur einmal, sondern mehrfach vorhanden ist.

Zuerst sind Deepfakes in der Pornoindustrie aufgetaucht

«Bei den Videos kann man das gleiche Prinzip anwenden», sagt Riess und fügt noch hinzu: «in der Theorie zumindest.» In der Praxis sei das wegen der riesigen Datenmengen bisher noch zu schwierig. «Zudem ist das Ganze bei Videos schwieriger, weil sie wegen der grossen Datenmengen viel stärker komprimiert sind.» Durch die Komprimierung würden Informationen, die für die Spurensuche wichtig wären, zerstört. Trotzdem existieren bereits erste Ansätze in diese Richtung. Ein Team von Forschern der Universität Albany New York, das auch mit Darpa zusammenarbeitet, hat ein Verfahren entwickelt, das nach genau solchen technischen Spuren von Manipulationen sucht.

Die neuronalen Netzwerke, die synthetische Gesichter produzieren, nutzen als Basis eine grosse Anzahl von überlagerten, gelernten Beispiel-Gesichtern. Die gelernten Gesichter muss das System jeweils in Grösse und Ausrichtung auf den Zielkopf, etwa jenen von Zuckerberg, anpassen, weil der zum Beispiel seinen Kopf gerade leicht zur Seite neigt. Meistens passen Original und synthetisch erzeugtes Gesicht nicht hundertprozentig aufeinander. Also muss die Software die falschen Bilder leicht rotieren, dadurch entstehen Abbildungsfehler, die man von Auge nicht unbedingt sieht. Doch eine entsprechende Software kann gezielt danach suchen.

«Das könnte die Grundlage für eine allgemeine Erkennung von Fakes sein», sagt Christian Riess. Bisher hätten die US-Forscher aber erst nachgewiesen, dass ihr Verfahren bei Deepfakes funktioniert. Denn obwohl der Begriff Deepfake heute allgemein als Bezeichnung für gefälschte Videos verwendet wird, ist dieser nur eines von verschiedenen Verfahren mit dem gleichen Ziel. Wie so häufig bei technischen Neuerungen diente die Pornoindustrie als erste Testumgebung. Deepfaker montierten ursprünglich die Köpfe prominenter Schauspielerinnen auf die Körper von Pornodarstellerinnen.

Weil die gefälschten Videos immer besser werden, musste auch Sébastien Marcel die Ausrichtung seiner Forschung verändern. Ursprünglich suchte das Schweizer Team nach Ungereimtheiten im Zusammenspiel von Stimme und Lippenbewegungen. «Doch die Deepfakes sind inzwischen so gut, dass man da kaum mehr etwas findet», sagt Marcel. Deshalb hat das Team den Ansatz verändert und sucht nun auch nach technischen Spuren, die darauf schliessen lassen, dass ein zweites vom Computer generiertes Gesicht in das Video eingefügt worden ist, was sich beispielsweise bei leichten Unschärfen am Rand zeigt.

Ein Wettrüsten zwischen Fälschern und Forschern

«Doch auch diese Fehler werden die Fälscher in Zukunft verhindern können», sagt Marcel – ein Wettrüsten eben. Das Schweizer Team ist deshalb bereits einen Schritt weiter. Über die neusten Entlarvungsmethoden will der Forscher allerdings noch nichts verraten.

Medienforensiker Riess erhofft sich mehr Hilfe von den Social-Media-Plattformen. Facebook etwa entferne bei allen Videos die Meta-Informationen, also beispielsweise Hinweise darauf, mit welcher Kamera ein Video aufgenommen worden ist. «Dabei lassen sich von diesen Daten wichtige Hinweise auf Fälschungen ziehen», sagt Riess. So könne man zum Beispiel erkennen, wenn zwei verschiedene Aufnahmesensoren beziehungsweise Kameras im Spiel gewesen seien.



Dieser Text stammt aus der aktuellen Ausgabe. Jetzt alle Artikel im E-Paper der SonntagsZeitung lesen: App für iOSApp für AndroidWeb-App

Erstellt: 14.07.2019, 14:48 Uhr

Artikel zum Thema

Jetzt kommt ein Gegengift gegen Fake-Videos

Gefälschte Videos drohen die Wahrheit im Internet endgültig zu begraben. Weltweit vernetzte Computer-Nerds wollen das verhindern. Mehr...

Gegen Deepfakes hilft nur eines: Faktencheck

Kommentar Die grossen Techfirmen scheinen unfähig zu sein, die Risiken ihrer Plattformen einzudämmen. Das könnte eine Chance für die klassischen Medien sein. Mehr...

Eine Meisterin der Fake News tritt ab

Sie hat gelogen und das Vertrauen der Presse zum Weissen Haus zerstört. Jetzt gibt Sarah Sanders ihr Amt als US-Regierungssprecherin ab. Mehr...

Gesichter kreieren

Dass Deepfakes heute viel überzeugender sind, hat mit einer Methode der künstlichen Intelligenz (KI) zu tun, die sich «Generative Adversarial Networks» (Gan) nennt. Ein Gan besteht aus zwei künstlichen neuronalen Netzwerken, die miteinander konkurrenzieren und in diesem Wettstreit Neues lernen. Im Falle der Deepfakes erzeugt das erste neuronale Netzwerk, der Generator, Bilder von Gesichtern. Das zweite konkurrenzierende Netzwerk, der Beurteilende, muss einschätzen, ob die Bilder echt sind oder vom Computer kreiert.
Durch die ständigen Beurteilungen schafft das erste Netzwerk immer überzeugendere synthetische Bilder, während das zweite Netzwerk immer besser darin wird, die Bilder zu beurteilen. Das Resultat sind verblüffend real aussehende Gesichter, die jedoch nicht echt sind. «Diese Verfahren haben die KI-Experten eigentlich nicht für einen solchen Nutzen geschaffen», sagt Deepfake-Experte Walter Schreier von der University of Notre Dame in Indiana.
Die Porträtbilder sind für Ahnungslose kaum von echten Menschen zu unterscheiden, wie die Beispiele der drei Frauen im Lauftext zeigen. Nur eine Aufnahme zeigt eine Frau, die es tatsächlich gibt. (abr)

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Abo

SonntagsZeit. Im Digital-Abo.

Die SonntagsZeitung digital ohne Einschränkung nutzen. Für nur CHF 10.- pro Monat.
Jetzt abonnieren!

Kommentare

Blogs

Geldblog Vorsicht beim Verrechnungsverzicht!

Mamablog Nehmt euch Zeit fürs Kranksein!

Die Welt in Bildern

Zum Wiehern: Ein Pferd scheint sich in Feldberg im Schwarzwald über die weisse Pracht zu freuen. (18. November 2019)
(Bild: Patrick Seeger) Mehr...