Hintergrund

Deepfakes erklärt: Wenn man den Augen nicht trauen darf

Uhr

Die Angst vor Deepfakes wächst. Wenn selbst Anfänger mit wenigen Ressourcen die Gesichter von Personen in Videos austauschen können, lässt sich damit leicht Schaden anrichten. Nicht nur zum Verbreiten von Fake News, auch um an Vertrauliche Informationen heranzukommen werden Deepfakes eingesetzt.

(Source: Geralt / pixabay.com)
(Source: Geralt / pixabay.com)

Deepfakes sind Videos, bei denen mittels künstlicher Intelligenz und Machine Learning die Gesichter von Personen oder andere Elemente ausgetauscht werden. Wenn die Resultate dabei einigermassen überzeugend herauskommen, können viele Zuschauer hinters Licht geführt werden – wie einige Beispiele bewiesen haben.

Im obigen Video ist nicht wirklich Barack Obama zu sehen. Stattdessen mimt der Comedian Jordan Peele den ehemaligen Präsidenten der USA. Damit demonstriert er auf effektive Weise den Einsatz der Deepfakes-Technologie. Im folgenden Video sind weitere Beispiele zu sehen, etwa von Theresa May und Vladimir Putin.

Wo alles begann

Erstmals sorgte ein Reddit-User namens "deepfakes" Ende 2017 für Furore, indem er Gesichter von Berühmtheiten in pornografische Videos einfügte. Beispielsweise verpflanzte er das Gesicht von Gal Godot, der Darstellerin von "Wonder Woman", auf den Körper einer Pornodarstellerin.

Was solche Fälle vor allem beweisen: Die für Deepfakes erforderliche Technologie ist leicht zu benutzen. Gleichzeitig gebe es noch keinen Grund zur Panik, denn solch manipulierten Videos seien genauso leicht zu entlarven. Wie The Verge schreibt, hinterlassen existierende Deepfake-Architekturen vorhersehbare Grafik-Artefakte, die für einen Machine-Learning-Algorithmus leicht zu entdecken seien. Auf Github findet man beispielsweise eine Gratis-Software, um Videos auf Deepfake-Manipulationen zu untersuchen.

Nicht zu spassen

Schaden können Deepfakes - oder vermutete Deepfakes - dennoch anrichten, wie der Fall von Ali Bongo zeigt. Bongo, Präsident vom afrikanischen Land Gabon, war wegen einer chirurgischen Behandlung seit Oktober 2018 in Saudi Arabien und Grossbritannien gewesen und wurde nicht mehr in der Öffentlichkeit gesehen. Bürger von Gabon und anderer Nationen begannen seinen Gesundheitszustand zu hinterfragen. Einige glaubten gar, er sei verstorben. Im Dezember hiess es dann, er habe einen Schlaganfall überlebt.

Für seine jährliche Ansprache zum neuen Jahr erschien ein Video. Bongos Kritiker bezweifelten dessen Authentizität, wie "Mother Jones" berichtet. Da Bongo keinen Nachfolger ausgewählt hatte, eröffnete dies das Feld für eine grosse Bandbreite an Wahlkandidaten. Bruno Ben Moubamba, ein politischer Gegner von Bongo, argumentierte offen, dass das Video ein Deepfake sei.

Eine Woche nach Erscheinen des Videos startete das gabonesische Militär einen Putsch - ohne Erfolg. Momentan streiten sich Spezialisten und Analysten darüber, ob das Bongos Video nun echt sei oder nicht.

Die Resultate werden immer überzeugender

Gegenüber der NZZ sagte Marc Ruef, Mitinhaber der Sicherheitsfirma Scip aus Zürich, dass es ausgesprochen schwierig sei, einen guten Deepfake zu erstellen. Ruef und sein Team hätten bisher erfolglos versucht, den perfekten Deepfake zu kreieren. Die Entwicklung von Deepfake-Technologien schreitet jedoch immer schneller voran. Die bisher überzeugendsten Deepfakes zeigen meistens eine simpel beleuchtete Szene mit einer sitzenden, sprechenden Person. An der University of California, Berkeley, arbeiten Forscher daran, Körperbewegungen von einer Person zur anderen zu übertragen.

Was Deepfakes für Security bedeuten

Gerade bei der Gesichtserkennung könnten Systeme von simplen Bildern überlistet werden, wie Mike Elgan von "Security Intelligence" schreibt. Das Kryptowährungsunternehmen Binance etwa habe festgestellt, dass einige Kriminelle versucht hätten, seine Sicherheitssysteme mit manipulierten Fotos zu überlisten. Also wechselte Binance das Gesichtserkennungssystem von Bild- zu Videoaufnahmen. Sicherheitsanalytiker befürchteten nun, dass es nur eine Frage der Zeit sei, bis Deepfakes so gut würden, dass sie auch solche Videoentsperrungen täuschen könnten.

Im Bereich Social Engineering – also dem Beeinflussen von Individuen, um an vertrauliche Informationen heranzukommen – könnten Deepfakes zur grössten Bedrohung werden, wie Elgan weiter schreibt. Wenn sich zum Beispiel jemand via Video und mit Einsatz von Deepfake-Technologie überzeugend als Vorgesetzter ausgeben und so nach Passwörtern oder sensiblen Daten fragen kann.

Mehr zum Thema Security: Markus Gross von der ETH Zürich erklärt, wie digitale Identitäten vermietet werden können und was das für E-Voting-Systeme bedeutet.

Webcode
DPF8_130515

Kommentare

« Mehr