Deep-Fake-KI: Forscher tauschen Gesichter in Webcam-Aufnahmen in Echtzeit

Ein deutsches Forscherteam hat eine Software entwickelt, die Deep-Fakes in Echtzeit erzeugen und beispielsweise Gesichter in Webcam-Aufnahmen austauschen kann.

von Sara Petzold,
21.08.2019 07:23 Uhr

Deep-Fake-KIs können täuschend echte gefälschte Bilder erstellen, wie etwa diese Mona-Lisa-Varianten einer Samsung-Software.Deep-Fake-KIs können täuschend echte gefälschte Bilder erstellen, wie etwa diese Mona-Lisa-Varianten einer Samsung-Software.

Künstliche Intelligenzen lernen immer mehr dazu - und können seit einer Weile auch Videos manipulieren, um Zuschauer glauben zu machen, dass dort eine andere Person zu sehen sei als es tatsächlich der Fall ist.

Dazu erzeugen sie gefälschte Gesichter, die sie anstelle der Originale in die Bewegtbilder einsetzen. Bislang funktionierte eine derartige Manipulation allerdings nur im Nachhinein, indem eine entsprechend trainierte Gesichtserkennungssoftware die ursprüngliche Aufnahme quasi übermalte.

Jetzt ist es einer deutschen Forschergruppe gelungen, Gesichter sogar in Echtzeit zu ersetzen, wie Heise berichtet.

KI erkennt Mimik und überträgt sie auf andere Gesichter

Das Team der IT-Firma TNG Technology Consulting entwickelte dazu eine Software, die Live-Aufnahmen von Webcams direkt beeinflussen und Gesichter vertauschen kann. Die KI ist darauf trainiert, menschliche Mimik zu erkennen und dann auf andere Gesichter zu übertragen.

Im Videostream analysiert sie daher die Bewegungen des zu manipulierenden Gesichts und ersetzt es anschließend mit einem Deep-Fake-Modell, das die erkannte Mimik imitiert. Die Software kombiniert dafür Technologien der Computer Vision und neuronaler Netzwerke.

Im Fall der TNG-Deep-Fake-KI nutzte das Team die Deep-Learning-Bibliothek Keras, um die Software mit Autoencoder-Netzen zu trainieren. Ergänzend setzten die Forscher auf eine Kombination diverser neuronaler Netze.

Wettrennen um Deep-Fakes hat begonnen

Derweil liefern sich KI-Entwickler weltweit ein Wettrennen, um Schutzmaßnahmen gegen Deep-Fakes zu erstellen beziehungsweise diese wieder zu überlisten.

Forscher der Berkeley Universität im US-Bundesstaat Kalifornien haben beispielsweise eine neue Technologie entwickelt, die den individuellen Bewegungs- und Sprachstil einer Person analysiert und dadurch Deep-Fakes entlarven soll - das gelingt aktuell mit einer Genauigkeit von 92 Prozent.

Einer der an dem Projekt beteiligten Forscher, Hao Li, sagte in der Technology Review, dass diese Technik besonders schwer auszuhebeln sei. Trotzdem glaubt er, dass irgendwann auch seine Software überlistet wird.


Kommentare(50)

Nur angemeldete Benutzer können kommentieren und bewerten.

Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen oder schließen