Deepfake-Videos

Gefahr durch Deepfake-Videos: Schweizer Start-Up will den Betrug stoppen

Der US-Präsident verkündet, Aids besiegt zu haben. Doch es sind bloss Fake-News, verbreitet als Deepfake-Video.

Der US-Präsident verkündet, Aids besiegt zu haben. Doch es sind bloss Fake-News, verbreitet als Deepfake-Video.

Täuschend echt: Deepfake-Videos spielen Realität vor, könnten Wahlen manipulieren oder gar Kriege auslösen. Auch Firmen wie Nestlé und Swiss Re sind alarmiert.

Die nasale Stimme, die unverwechselbare Gestik, die Mimik – hier spricht Donald Trump. Mit Stolz verkündet der US-Präsident vor der Presse in einem 50 Sekunden langen Clip, Aids im Alleingang besiegt zu haben: «Thank you God, thank you Donald Trump!»

Auch wenn der Grössenwahn echt wirkt, der Clip ist es nicht. Es stammt von einer französischen Aids-Hilfe-­Gruppe, die vergangenen Herbst auf ihr Anliegen aufmerksam machen wollte. Der Clip ist ein so genanntes Deep­fake-Video. Deepfakes sind das neuste Phänomen im Reich der Fake News: audiovisuelle Filme, produziert mit Hilfe künstlicher Intelligenz, die uns eine Realität vorgaukeln, die so nicht existiert, aber deren Konsequenzen reell sein können.

Das Trump-Video gehört zu den professionellsten Deepfakes bisher. Dennoch dürften manche Zuschauer rasch merken, dass hier etwas nicht stimmt. Ob das allen 30000 Leuten klar war, die das Video angeklickt haben, darf bezweifelt werden.

95 Prozent sind pornogra­fische Clips

Die Mehrheit der heutigen Deep­fakes, die heute im Internet zirkulieren – gemäss Expertenschätzungen sind es rund 95 Prozent – sind pornogra­fische Clips mit den Köpfen von Hollywood-­Stars wie Jennifer Lawrence oder Gwyneth Paltrow.

Beliebt sind auch Filmclips, zum Beispiel aus dem Kultfilm «Terminator», in dem plötzlich Sylvester Stallone statt Arnold Schwarzen­egger den Killer-Roboter spielt. Das kommt nicht von ungefähr. Denn von den Hollywood-Stars und Politikern gibt es mehr als genügend Filmmaterial, das sich manipulieren lässt.

Aus anfänglichen Internetspielereien ist eine Gefahr geworden. Die Technologie kann dazu benutzt werden, Menschen zu diffamieren, zu betrügen oder gar ihre Identität zu stehlen. «Deepfakes nehmen rasant zu und werden zu einem Risiko», sagt Aengus Collins, Vize-Direktor des «International Risk Governance Center» der ETH Lausanne (EPFL), der sich in seiner Forschung mit der Thematik auseinandersetzt. In den USA geht bereits die Angst um, Deepfakes könnten die Wahlen 2020 entscheidend beeinflussen.

Mit Hilfe künstlicher Intelligenz den Fälschern auf der Spur

Auch Grosskonzerne sind sich der Gefahr bewusst geworden. Schliesslich gelang es vergangenes Jahr in Frankreich Betrügern, mit der Deepfake-Tonaufnahme eines Firmenchefs Geld vom Unternehmen zu stehlen. «Die Technologie ist noch sehr jung, aber die Geschwindigkeit, mit der sie sich entwickelt, ist besorgniserregend schnell», sagt Collins.

Die Westschweizer Hochschule hat vergangenen Herbst eine Arbeitsgruppe einberufen und die grössten Risikofelder der Deepfakes analysiert. Mit dabei waren Akademiker, Juristen bis hin zu IT-Spezialisten von bekannten Firmen wie den Versicherungen Zurich und Swiss Re, des Nahrungsmittelriesen Nestlé sowie Vertreter der Arizona State University, der Agence France-­Presse, des Thomas J. Watson Research Center von IBM und der chinesischen Universität Tsinghua. «Es braucht Experten des privaten und öffentlichen Sektors, denn das Thema betrifft enorm viele Bereiche», sagt Collins.

Die Studie der EPFL kommt unter anderem zum Schluss, dass technische Lösungen nötig sind, um Deepfakes ausfindig zu machen. An einer solchen arbeitet die Hochschule derzeit in Zusammenarbeit mit dem Lausanner Start-up Quantum Integrity. Das Forschungsteam erhielt im Herbst von der Schweizerischen Agentur für Innovationsförderung Innossuisse eine Finanzspritze, um die Entwicklung einer Software zu beschleunigen. Im Frühling ist mit ersten Resultaten zu rechnen, sagt Start-up-Chef Anthony Sahakian im Gespräch.

Mit Pornos fing alles an: Köpfe von Hollywood-Stars wie Gal Gadot werden für Sexfilme missbraucht.

Mit Pornos fing alles an: Köpfe von Hollywood-Stars wie Gal Gadot werden für Sexfilme missbraucht.

Sein Team setzt auf künstliche Intelligenz wie die Produzenten von Deepfake-Videos. Sie ist darauf trainiert, kleinste Pixel-Unstimmigkeiten zu erkennen. Zur genauen Funktionsweise will Sahakian aus Konkurrenzgründen nichts sagen. Eines der Ziele sei eine Webseite, auf der man ­Bilder und Videos hochladen kann und sofort Bescheid erhält, ob sie echt oder gefälscht sind.

Noch wird bei den meisten Deep­fakes ein Teil des Films nachgestellt, entweder der Ton durch einen Stimmenimitator oder der Körper mit Hilfe eines Darstellers, auf den später das digitale Gesicht gesetzt wird. Vor allem beim Ton sind die Fälscher noch nicht am Ziel, doch das dürfte sich laut Experten bis in einigen Jahren ändern, vielleicht früher.

Private Nutzer kommen bereits heute in Kontakt mit simpleren Formen von Deepfakes. Auf Snapchat kann man das eigene Gesicht mit dem Filter «Time ­Machine» altern lassen. Mit der Funktion «Gender Swap» wird man je nach Wunsch zur Frau oder zum Mann. Und Ende August kam die chinesische App Zao auf den Markt, die es privaten Nutzern erlaubt, in Sekundenschnelle ein eigenes Deepfake-Video von sich selber zu produzieren.

Langfristig geht es um die Erosion der Glaubwürdigkeit

Genau diese Apps sind Teil des Problems. Laut EPFL-Experte Aengus Collins hinterlassen Privatpersonen mit ihren Facebook-, Twitter- und Tinder-Profilen einen immer grösser werdenden digitalen Fussabdruck im Internet. Sprich: Die hochgeladenen Selfies sind ein gefundenes Fressen für Deepfake-Produzenten, die auf Bildmaterial angewiesen sind.

Das Problem: Nicht nur die künstliche Intelligenz der Deepfake-Detektoren lernt hinzu, sondern auch jene der Gegenseite. Diese Technologien würden rasch aus Fehlern lernen, sagt Collins. «Je mehr Schwachstellen von Deepfake-Detektoren ausgemacht werden, zum Beispiel bei den Augen, die lange nicht blinzelten, desto besser werden die neuen Filme. Es ist ein Teufelskreis.»

Hasta la vista, Arnold! Sylvester Stallone als «Terminator»? Deepfake-Technologie macht es möglich.

Hasta la vista, Arnold! Sylvester Stallone als «Terminator»? Deepfake-Technologie macht es möglich.

Je besser die Technologie wird, desto unbegrenzter scheinen die künftigen Film-Szenarien: Ein US-Präsidentschaftskandidat beim Koksen, Israels Premierminister, der zum Mord von Palästinensern aufruft; der südkoreanische Diktator, der den Abschuss einer Atomrakete verkündet – was ist wahr? Und so stellt sich die Frage, ob ein Deepfake auch einen Krieg auslösen könnte. «Das wäre durchaus möglich», sagt Sahakian, ohne lange zu überlegen.

Und was ist mit den US-Wahlen? «Ein Video allein wird wohl nicht entscheiden, ob Bernie Sanders oder Donald Trump gewählt wird. Aber Hunderte solche Videos, in denen ein Politiker diffamiert wird, vielleicht schon», sagt Sahakian.

Anfang Jahr gab der Social-Media-­Gigant Facebook bekannt, Deepfakes auf seine schwarze Liste zu nehmen. Darauf stehen schon Nacktheit, Hassreden und Gewaltbilder. Facebook-Gründer Mark Zuckerberg wurde selbst Opfer eines Deepfake-­Videos, in dem er über fragwürdige Datenauswertungen auf der sozialen Plattform spricht. Und diese Woche forderte Sundar Pichai, Chef des Google-Mutterkonzerns Alphabet, dass künstliche Intelligenz besser reguliert werden müsse. Dabei nannte er ausdrücklich auch Deepfakes – nicht zuletzt infolge politischen Drucks.

EPFL-Experte Aengus Collins verweist auf tiefer greifende Folgen der Deepfakes.

Es gehe dabei um die Grundelemente der demokratisch geführten Debatte. Sahakian zieht Parallelen mit einem Computervirus, nur ginge das Deepfake-Problem weiter: «Viren beschädigen die Hardware, die Deepfakes unser Gehirn.»

Verwandte Themen:

Meistgesehen

Artboard 1