Menü
Göttinger Tageblatt / Eichsfelder Tageblatt | Ihre Zeitung aus Göttingen
Anmelden
Digital Deepfakes: Sind manipulierte Videos eine Gefahr?
Nachrichten Digital Deepfakes: Sind manipulierte Videos eine Gefahr?
Partner im Redaktionsnetzwerk Deutschland
12:20 17.12.2018
Künstliche Intelligenzen können berühmten Politikern wie Barack Obama die Worte in den Mund legen. Quelle: DPA, Montage: RND
Anzeige
Hannover

Die Situation ist ernst. Im Mission-Control-Center sucht die Nasa fieberhaft nach einer Lösung, um die Besatzung von „Apollo 13“ sicher zur Erde zurückzubringen. Ein Problem: Die eckigen CO2-Filter der Raumfähre passen nicht auf die runden Buchsen der Landefähre. „Tja, dann schlage ich vor, Gentlemen, dass wir lernen, ein eckiges Schwein durch ein rundes Loch zu schieben“, sagt der Flugdirektor, im Film „Apollo 13“ gespielt von Ed Harris. Ein eckiges Schwein? Soll das ein Witz sein, Galgenhumor? Nein, es ist ein Übersetzungsfehler. Statt „peg“ für „Stöpsel“ haben die Übersetzer offensichtlich „pig“ (also Schwein) verstanden.

Synchronisationen von Filmen haben oft einen schlechten Ruf. Dabei sind sie wirklich nicht einfach. Nicht nur, weil Missverständnisse entstehen können – sondern auch technisch gesehen. Besonders schwierig ist die Lippensynchronisation, also der Moment, wenn man das Gesicht eines Schauspielers sehen kann, er aber statt Englisch plötzlich Deutsch reden soll. Denn natürlich sieht ein Mund anders aus, wenn er gerade „tree“ statt „Baum“ sagt. Dazu kommt: Manche Sätze sind in der Übersetzung länger oder die Mimik stimmt nicht mehr mit dem Gesagten überein. Doch wenn die Synchronisation nicht überzeugt, dann ist die Illusion eines Films schnell dahin.

Der Mund passt sich an das Gesagte an

In Zukunft könnte es deutlich einfacher werden, Filme zu synchronisieren. Denn Wissenschaftler des Max-Planck-Instituts für Informatik in Saarbrücken haben eine Möglichkeit gefunden, die Mundbewegung und sogar den kompletten Gesichtsausdruck eines Schauspielers in einer Filmaufnahme zu verändern. Statt zu versuchen, die Übersetzung möglichst genau an die Mundbewegungen anzugleichen, könnte man damit einfach die Mundbewegungen an die Übersetzung anpassen.

Dazu nutzen die Forscher die Hilfe einer künstlichen Intelligenz (KI). Bei der Aufnahme im Studio werden der Synchronsprecher und seine Mimik als dreidimensionales Modell aufgezeichnet. Die Bewegungen überträgt die KI dann auf das Gesicht des Schauspielers. Der Synchronsprecher kann also quasi die Gesichtsbewegungen des Schauspielers kontrollieren. Die Technik passt sogar die Kopfhaltung, den Blick und das Augenzwinkern an.

Nicht nur in Filmen könnten die sogenannten „Deep Video Portraits“ zum Einsatz kommen, sondern zum Beispiel auch bei Videokonferenzen – oder in der Postproduktion. Für den Film „Der seltsame Fall des Benjamin Button“ musste das Gesicht von Schauspieler Brad Pitt mühsam Frame für Frame ersetzt werden. Mithilfe der „Deep Video Portraits“ könnte so etwas mit deutlich weniger Aufwand möglich sein, erklären die Forscher. Dem Max-Planck-Institut ist es allerdings sehr wichtig zu betonen, dass die Forscher dort ernsthafte Grundlagenforschung betreiben. Mit dem, was man über mögliche Missbräuche oder gar „Deepfakes“ in der Vergangenheit lesen konnte, will man auf gar keinen Fall assoziiert werden.

Deepfakes“ produziert Pornos

Denn es ist wie so oft: Eine technische Neuerung kann so oder so verwendet werden. Tatsache ist: Mithilfe künstlicher Intelligenz ist es immer besser möglich, Menschen Wörter in den Mund zu legen, Videos auf eine Art zu manipulieren oder sogar von Grund auf zu erzeugen, die von echten Aufnahmen immer schlechter zu unterscheiden sind. Es ist naheliegend, dass damit auch Unheil angerichtet wird. Tatsächlich ist das Wort, das häufig synonym mit den neuen Möglichkeiten der Videomanipulation verwendet wird, das beste Beispiel genau dafür. Denn das Kofferwort „Deepfakes“ (von Deep Learning und Fake) ist gleichzeitig auch das Pseudonym eines Reddit-Nutzers, der 2017 mehrere Pornovideos ins Netz stellte. „Deepfakes“ hatte eine künstliche Intelligenz mittels Pornos und Filmen berühmter Schauspielerinnen trainiert. Auf den Videoergebnissen waren die Gesichter von Promis wie Gal Gadot oder Emma Watson auf die Körper von Pornodarstellerinnen montiert werden. Die Videos waren schnell als unecht enttarnt. Aber was ist, wenn das irgendwann einmal nicht mehr so leicht ist?

Das Setting, die Krawatte, der Gesichtsausdruck, die Stimme – alles stimmt. Doch dann sagt Barack Obama seltsame Sachen wie zum Beispiel, dass Donald Trump ein totaler und kompletter Vollidiot sei. Oder das Killmonger – der Antagonist aus dem Film „Black Panther“ – Recht gehabt habe. Das Video, das Buzz­feed gemeinsam mit dem Schauspieler und Regisseur Jordan Peele im April veröffentlichte, verheimlicht nicht, dass darin nicht der echte Barack Obama spricht. Tatsächlich beginnt der Fake-Obama seine kurze Ansprache mit dem Hinweis, dass eine Ära anbreche, in der unsere Feinde jeden alles zu jeder Zeit sagen lassen können. „Das ist eine gefährliche Zeit. In Zukunft müssen wir wachsamer sein, welchen Inhalten wir aus dem Internet vertrauen“, warnt deshalb der falsche Obama.

Die Fake-Macher: Was sind GANs?

Bildmanipulation ist nicht neu – schon vor Photoshop mussten sich Menschen fragen, ob das, was ein Foto vermeintlich zeigte, wirklich real war. Doch wozu früher viel Expertise und Können nötig war, macht KI-Technologie Schritt für Schritt für jedermann zugänglich. Dazu nutzt man beispielsweise eine Technik des maschinellen Lernens, die sich Generative Adversarial Networks (GAN) nennt. Auf Deutsch: erzeugende gegnerische Netzwerke. Genau das passiert dabei nämlich: Zwei künstliche neuronale Netzwerke treten sozusagen in einen Wettstreit, trainieren sich gegenseitig. Eines von ihnen schafft ein Bild, das andere lernt, zwischen Fake und Realität zu unterscheiden. So entstehen immer bessere Fakes – ob Bilder, Videoaufnahmen oder Stimmen.

Fake-Videos für Fake News

Schon heute sind Fake News, also gezielte Falschnachrichten, ein Problem. Was passiert, wenn falsche Stimmen und falsche Videos eingesetzt werden, um falsche Nachrichten zu produzieren? Wenn in einer aufgeheizten Situation, wie zuletzt in Chemnitz, plötzlich falsche Videos neben echten zirkulieren? Was, wenn so ein Video kurz vor einer Wahl auftaucht und nicht rechtzeitig als falsch identifiziert wird – oder das womöglich auch manche gar nicht mehr interessiert?

Noch sind es eher Experten, die überzeugende Videomanipulationen zu Demonstrationszwecken erstellen können. Und auch in beeindruckenden Simulationen wie dem Obama-Beispiel kann man, wenn man ganz genau hinschaut, Unstimmigkeiten erkennen. Doch in Zukunft wird diese Technologie immer besser und wahrscheinlich jedem und jeder zugänglich werden. Schon heute gibt es Unternehmen wie beispielsweise Lyrebird aus Kanada, mit deren Hilfe jeder seinen eigenen persönlichen Stimmenimitator erstellen kann. Dazu spricht man einfach ein paar Beispielsätze ein, wartet ein bisschen und kann dann einen Satz eintippen und ihn sich in der eigenen Stimme vorlesen lassen. Es könnte also nur eine Frage der Zeit sein, bis ein gefälschtes Video eine politische Krise auslöst.

Geht die Realität verloren?

Um es nicht so weit kommen zu lassen, arbeiten Wissenschaftler an Methoden der Verifizierung, an Möglichkeiten, mit den Videobearbeitungstechnologien Schritt zu halten, zum Beispiel. Gleichzeitig müssen die Menschen über diese Technologien Bescheid wissen, sie müssen „wach bleiben“, wie der Fake-Obama flapsig mahnt.

Reicht das – wenn „Realität“ nicht mehr „Realität“ bedeutet, wenn jeder es so aussehen lassen könnte, als sei etwas passiert, das gar nicht passiert ist? Ein großes Problem, warnt der Experte Aviv Ovadya im Gespräch mit dem „Guardian“, ist, dass die „Deepfakes“ dazu führen können, dass die Menschen allem misstrauen, was sie sehen oder hören. Wenn alles eine Fälschung ist, dann – so könnten manche überzeugt sein – glaubt man besser gar nichts mehr.

Von Anna Schughart/RND

Der Vine-Mitbegründer Colin Kroll ist gestorben. Der 34-jährige wurde tot in New York gefunden. Kroll hatte neben der Video-App Vine auch die Quiz-App Trivia HQ gegründet.

17.12.2018

Hausbewohner ausspionieren, Schlösser knacken, und die Beute im Darknet verkaufen: Im PC-Spiel „Thief Simulator“ können sich Spieler in die Rolle eines Kleinkriminellen versetzen.

16.12.2018

Wie weit kann ich mit einem E-Auto fahren? Für wen lohnt sich der Kauf? Wie teuer ist der Strom? Und helfen Elektromodelle wirklich der Umwelt? Fragen und Antworten ­zum Thema E-Mobilität.

16.12.2018