Pentagon erklärt Fake-Videos den Krieg

Sie dienen der Desinformation und dem Rufmord: Nun sollen manipulierte Videos direkt beim Hochladen erkannt werden.

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Kann man mit der einen künstlichen Intelligenz ausbügeln, was die andere künstliche Intelligenz angerichtet hat? Das US-Verteidigungsministerium glaubt genau das. Das Pentagon hat Geld für ein Projekt gesprochen, bei dem Bilder und Videos mittels kluger Algorithmen auf ihre Echtheit überprüft werden. Fotos und speziell die anrüchigen Deepfakes sollen automatisch enttarnt werden. Die Prüfsoftware soll sogar erkennen, wie eine Manipulation entstanden ist.

Das Magazin «Technology Review» beschreibt, wie das gehen soll: Die Teilnehmer am Projekt haben den Auftrag, mit den Mitteln der künstlichen Intelligenz (KI) möglichst glaubwürdig Videos, Bilder und Tonaufnahmen zu fälschen. Gleichzeitig sollen die Experten aus dem Bereich der digitalen Spurensicherung KI-Werkzeuge bereitstellen, die den Fakes auf die Spur kommen.

Aus den Tiefen des Internets

Es ist nicht erstaunlich, dass sich das Pentagon um einen netzkulturellen Auswuchs kümmert. Entstanden sind die Deepfakes im Untergrund des Internets, konkret auf der Sammelsurium-Plattform Reddit. Dort wurden in einer unterdessen gesperrten Gruppe Pornoclips veröffentlicht, bei denen die Gesichter der Darsteller durch die von Prominenten ausgetauscht wurden. Vornehmlich Schauspielerinnen wie Emma Watson, Natalie Portman oder Gal Gadot wurden Opfer solcher Fälschungen. Das Techportal «The Verge» hat einige Urheber aufgespürt. Viele haben ihre Machwerke mit Wasserzeichen als Fälschung markiert: Es ging ihnen um ihre Wunschfantasien, nicht um die Ehrverletzung.

Männliche Schauspieler werden nicht entblösst, sondern verspottet: Nicolas Cage etwa steht im Zentrum eines viralen Internetphänomens, wobei er in Filme hineinmontiert wurde, bei denen er nicht hat mitspielen dürfen. Alles nur Spass? Manche befürchten, dass sich mit Deepfakes auch Regierungen und ganze Bevölkerungen hinters Licht führen lassen. Ein einziges virales Lügenvideo könnte internationale Konflikte auslösen. Die Techsite «The Outline» zitiert das Schreckensszenario des Computerwissenschaftlers Hany Farid von der Dartmouth University, in dem US-Präsident Trump einen Atomangriff auf Nordkorea ankündigt. Ein solches Machwerk zu erkennen, bevor es sozialmedial ausser Kontrolle gerät, könnte zur Frage der nationalen Sicherheit werden.

Kurzanleitung zum Thema Deepfakes. Video: Youtube/derpfakes

Gesichter auszutauschen, ist nach aktuellem Stand der Technik nicht trivial, aber längst nicht mehr so schwierig wie früher, wo Doppelgänger, aufwendige Make-ups, Requisiten und professionelles Filmequipment nötig waren. Man benötigt ein passendes Ausgangsvideo mit einem Akteur, der eine gewisse Ähnlichkeit mit der Person hat, die digital eingewechselt werden soll. Von dieser braucht man eine grössere Anzahl Fotos. Mit diesen Bildern wird das neuronale Netzwerk der Fälschungssoftware trainiert. Unter Umständen muss die Ausrichtung der eingestanzten Gesichter korrigiert werden. Schliesslich braucht man etwas Zeit, weil die Berechnungen Stunden oder Tage in Anspruch nehmen.

Manche Experten sind der Ansicht, dass Fälschungen schon bald nicht nur einfacher herzustellen, sondern auch überzeugender sein werden. Mit Generative Adversarial Networks werden Kreationen möglich sein, die sich mit herkömmlichen Methoden nicht mehr als Fälschung erkennen lassen. Bislang wird dafür die Datei darauf hin untersucht, ob Material aus mehreren Quellen kombiniert wurde. Auch Inkonsistenzen liefern zuweilen Verdachtsmomente, etwa ein unmöglicher Lichteinfall. Forensiker überprüfen schliesslich, ob im Video Wetter und Umgebung mit den Gegebenheiten übereinstimmen, die zum angeblichen Aufnahmezeitpunkt am angeblichen Aufnahmeort herrschten.

Gilt ein «Videobeweis» nichts mehr?

Mittels künstlicher Intelligenz will man Videos in dem Moment enttarnen, in dem sie ins Web hochgeladen werden. Doch das hat einen gewaltigen Nachteil: Die gleiche künstliche Intelligenz kann auch dazu verwendet werden, die Qualität der Fälschungen zu erhöhen und die Erkennung zu erschweren.

Die Kulturpessimisten warnen denn auch, dass wir den Augen nicht mehr trauen dürfen – und ein «Videobeweis» gar nichts mehr gilt. Das Techmagazin «The Register» zitiert den Entwickler einer Fälschungssoftware, der sich keinen Illusionen hingibt: Mit dem Programm lässt sich beliebig Missbrauch treiben – egal, ob Racheporno, Rufmord oder politische Diskreditierungskampagne.

Lektion auf die harte Tour

Wenn dem bewegten Bild der Nimbus der Unbestechlichkeit jetzt abhandenkommt, dann wird das von manchen beklatscht: Sven Charleer ist Computerwissenschaftler und passionierter Deep­faker. Er schreibt in seinem Blog, das sei «verfluchter Cyberpunk! Ein Spass für die ganze Familie!» Er hat seine Frau in die «Tonight Show» mit Jimmy Fallon hin­einmontiert und ihr damit eine «grosse, unschuldige Freude» gemacht: «Und du kannst deine beste Freundin in ihren Lieblingsfilm hineinversetzen: Lass sie mit Patrick Swayze tanzen und ‹the time of her life› haben!»

Charleer hält die Entwicklung für einen heilsamen Schock: «Wir wissen, dass Hollywoodfilme fake sind. Aber alle anderen Videos sollen echt sein?» Schon längst würden Videos und andere Medien gefälscht. Bislang war der Aufwand so gross, dass es sich nur wenige leisten konnten. Mit der Deepfake-Technologie werden die Medienfälschungsmöglichkeit quasi demokratisiert. Den Augen zu misstrauen, werde zunehmend zu einer unverzichtbaren Fähigkeit. Die Deep­fakes als Lektion in Medienkompetenz – auf die harte Tour.

(Tages-Anzeiger)

Erstellt: 12.06.2018, 19:42 Uhr

Artikel zum Thema

Trump Junior teilt gefälschtes Top-Gun-Video

Der Präsidentensohn Donald Trump Jr. hat ein Fake-Video weiterverbreitet. Es zeigt, wie sein Vater einen CNN-Jet vom Himmel holt. Mehr...

Erschreckend echt

Ein Programm ermöglicht die fast perfekte Illusion: Deepfakes sind täuschend echte Videomanipulationen. Mehr...

Fake News waren erst der Anfang

Der amerikanische IT-Spezialist Aviv Ovadya malt ein düsteres Bild der digitalen Zukunft. Mehr...

Kommentare

Weiterbildung

Lohncheck in Pflegeberufen

Qualifiziertes Pflegepersonal ist rar. Eine Pflegeinitiative setzt sich darum für höhere Löhne ein.

Die Welt in Bildern

Kampf gegen Rassismus: Ein Demonstrant protestiert gegen die Kundgebung «Liberty of Death», eine Versammlung von Rechtskonservativen vor der Seattle City Hall in Seattle, Washington. (18. August 2018)
(Bild: Karen Ducey/AFP/Getty) Mehr...