Anzeige

Ins Netz gegangen Wie Deepfake-Videos funktionieren

Ins Netz gegangen: Wie Deepfake-Videos funktionieren
© Shutterstock
Bei Deepfakes werden Gesichter in  Fotos oder Videos digital ausgetauscht und Stimmen künstlich hergestellt. Wie ihr diese Fälschungen erkennt und warum sie gefährlich sein können, lest ihr hier

Stellt euch vor, in eurer Klasse wird ein Video herumgeschickt. Darin ist ein Mitschüler zu sehen, der etwas total Peinliches sagt. Er selbst bestreitet, der Junge in dem Video  zu sein. Doch keiner glaubt ihm. Schließlich ist das sein Gesicht,  seine Stimme. Sogar sein typisches leichtes Stottern ist zu hören. Keine Frage: Das muss er sein. Oder?

Dieser Artikel stammt aus unserer GEOlino-Ausgabe Nr. 09/2022:

Muss er nicht. Es gibt nämlich eine Technik, mit der sich täuschend echte Fotos, Videos und Sprachbotschaften er­­stellen lassen. Sie wird „Deepfaking“ genannt. „Fake“ heißt auf Englisch „Fälschung“. Und „deep“ steht für „deep learning“, also für selbst­­lernende Software. Diese wird mit Videos oder Tonaufnahmen einer Person gefüttert. Mithilfe der Daten lernt der Computer, die Stimme  und Gesichtsausdrücke der Person nachzuahmen. Man kann sie dann die verrücktesten Dinge sagen und tun lassen. Es ist wie ein Mario­nettenspiel – bei dem die Puppen wie Menschen wirken.

Echt verwirrend: Ein Internetnutzer erlaubte sich mit einem ursprünglich ernsten Interview mit einem General der Bundeswehr einen Scherz: Mithilfe der Deepfake-Technologie verwandelte er den General in den britischen Schauspieler Rowan Atkinson, besser bekannt als Mr. Bean:

Falls ihr ein Smartphone besitzt, habt ihr vielleicht schon einen Deepfake erstellt. Vermutlich sogar von euch selbst: Es gibt Apps, die euch altern lassen, mit Falten, grauen Haaren und Zauselbart in eurem Gesicht. Oder ihr  zaubert euch in eine Filmszeneund werdet plötzlich zum Hobbit. Deep­­fakes können echt witzig sein …

Oft sind sie auch leicht zu erkennen, denn noch ist die Technik nicht ausgereift. In vielen Videos er­­innern die Personen an Roboter. Die Sprache klingt abgehackt. Die Mund­­winkel hüpfen seltsam. Der Kopf wirkt wie auf den Hals ge­­schraubt.

Doch die Software lernt dank künstlicher Intelligenz schnell hinzu. „In wenigen Jahren werden selbst Menschen, die geschult sind, Fälschungen aufzuspüren, diese kaum noch erkennen können“, sagt Patrick Aichroth.

Der 51-Jährige leitet am Fraun­hofer-Institut für Digitale Me­­dien­techno­logie in Ilmenau eine  Fachgruppe. Die Expertinnen und Ex­perten dort erforschen Deepfakes und versuchen sie aufzuspüren. Wer früher einen Deepfake erstellen wollte, musste technisch extrem fit sein und viel Datenmaterial be­­sitzen, berichtet Aichroth. „Inzwischen lässt sich schon mit wenig Aufwand und aus ein paar Ge­­sprächsfetzen aus Youtube-Videos ein gefälschter Anruf herstellen.“

Lassen sich Deepfakes spie­lerisch leicht in die Welt setzen, drohen große Gefahren! Davor warnt auch der ehemalige Präsident der USA, Barack Obama, in einem Video – könnte man meinen. In Wirklichkeit steckt der US-Schauspieler und Regisseur  Jordan Peele dahinter. Mithilfe der Deepfake-­Technik übertrug er die Gesichts­züge des früheren Prä­sidenten auf seine.

So tauscht die Deepfake-Technik Gesichter in Videos aus
© Zitat aus GEOlino 09/2022

Und im Ukraine-Krieg tauchte ein Video auf, in dem der ukrainische Präsident Wolodymyr Selen­sky sein Land scheinbar dazu aufruft, sich zu ergeben. Mutmaßlich handelte es sich um eine Fälschung aus Russland. Schlimmstenfalls könnten Deep­­fakes also benutzt werden, um sich in Kriege einzumischen. Oder um Grup­­pen gegeneinander aufzuhetzen.

Experten wie Patrick Aichroth und auch die Polizei müssen ständig hin­­zulernen, um Deepfakes weiter aufdecken zu können. „Es  ist Detektiv­­arbeit“, sagt Aichroth. Zum Beispiel untersucht er ver­dächtige Aufnahmen auf ungewöhnliche, für den Menschen kaum hörbare Geräusche, die im echten Leben nicht vorkommen.

Die Technik hinter den Deepfakes kann aber auch nützlich sein. Menschen, die nach einer Krankheit oder einem Unfall verstummen, gibt sie ihre Stimme zurück. Wer blind ist oder nie lesen lernte, kann sich Bücher und Briefe vorlesen lassen – von einer vertrauten Stimme, nicht von einer, die klingt wie die U-Bahn-­Ansage. Auch Wiederaufersteh­un­gen werden möglich: Durch ein Kunstmuseum in Florida scheint Salvador Dalí höchstselbst zu führen – obwohl der berühmte Maler vor über 30 Jahren starb.

Es ist wie mit den meisten Technologien: Erst in den falschen Händen werden sie zur Gefahr. Auch Patrick Aichroths Mutter erhielt schon einen Fake-Anruf. Eine Bekannte bat am Telefon um Geld. Die Stimme klang echt. Die Mutter aber wurde stutzig, als die angebliche Bekannte etwas Untypisches sagte. Auf eine kritische Frage der Mutter konnte die Computerstimme nicht reagieren – der Schwindel flog auf. Die künstliche Intelligenz der Software imitiert Gespräche eben nur. Wie ein Papagei, der auch nicht weiß, was er plappert. Plötzliche Gegenfragen und Themenwechsel brin­gen die Software aus dem Konzept.

So schützt ihr euch vor Deepfakes – eine Anleitung
© Zitat aus GEOlino 09/2022

Patrick Aichroths Rat lautet da­­her: „Immer kritisch bleiben.“ Man sollte nicht alles glauben, was man hört und sieht. Im Zweifelsfall sollten wir seltsame Videos nicht weiterverbreiten. Dass jemand Deep­fakes erstellt, können wir nämlich kaum verhindern. Dass sie in Um­­lauf geraten, hingegen schon.

Neu in GEOlino

VG-Wort Pixel