Erkennen Sie eine Fälschung mit bloßem Auge? Bereits 1994 wurde im Film Forrest Gump eine Form von CGI verwendet, um die gleichnamige fiktive Figur in Interaktion mit einem lächelnden JFK zu zeigen. Im Jahr 2015 wurde der Schauspieler Paul Walker, der inmitten der Dreharbeiten verstorben war, durch den Film Furios 7 wiederbelebt. Eine ähnliche High-Tech-Wiederauferstehung wurde auch der verstorbenen Carrie Fisher in einem neuen Star Wars-Film zuteil. Und wissen Sie was: Für solche Tricks werden keine Hollywood-Studios und Millionen von Dollars benötigt.

Wir beziehen uns hier auf die neu entdeckte Leichtigkeit, überzeugend gefälschte Videos zu produzieren, auch bekannt als „DeepFakes“. Je nach Perspektive ist dies entweder cool, gruselig oder auch beides zusammen. Fest steht jedoch, dass die digitale Fälschung der eigenen Person ganz und gar nicht cool ist – schon gar nicht ohne eigene Zustimmung. Diese Artikel untersucht das durchschlagende Phänomen der Deepfake-Videos und auf welche Weise sie direkt in die Entwicklung einer Epoche der Desinformation überleiten, die wir gegenwärtig durchleben.

Wie es begann

Das „Deep“ von deepfake bezieht sich auf das Deep Learning, eine Methode, mit der künstliche Intelligenz Daten sammelt, um noch intelligenter zu werden. In diesem Fall verwendet die KI ihre Daten, die bestimmte Gesichtsbewegungen enthalten, um ein neues Gesicht auf ein bestehendes Gesicht und einen bestehenden Körper zu übertragen. Während der Begriff „deepfake“ eine sehr junge Schöpfung ist, ist das Konzept an und für sich ganz und gar nicht neu. Die Menschen kämpfen seit mindestens 15 Jahren mit den mal problematischen, mal lustigen Ergebnissen von mit Photoshop bearbeiteten Bildern (oder jedem digital gefälschten oder veränderten Bild). Was den aktuellen Stand des manipulierten Videos jedoch besonders beunruhigend macht, ist die Tatsache, dass diese einst kostspielige, außergewöhnliche Technologie heute gut zugänglich, schrecklich benutzerfreundlich ist und die Hollywood-Experten für Special Effects überflüssig macht. Und leider stimmt diese neu gefundene Leichtigkeit mit der neuesten Serie gefälschter Nachrichten überein, das uns das erwähnte „Zeitalter der Desinformationen“ beschert hat.

Es macht wahrscheinlich Sinn, dass 2018 eine wirkungsvollen Warnung vor drohenden Fälschungen von einem Filmschauspieler und Regisseur, Jordan Peele, stammte, dessen virales Video mit seiner Imitation von Obamas Stimme beginnt, die über ein per Deepfake bearbeitetes Video von Obama vorgetragen wird. Peeles Botschaft lautet, dass überzeugende gefälschte politische Reden jetzt Realität sind, aber zusammenfassend bedeutet sein Fazit lediglich: „Passt auf, dass wir uns nicht zu einer Dystopie entwickeln“.

Da diese ganze Deepfake-Angelegenheit brandneu und aktuell ist und sich ihre scheinbaren negativen Möglichkeiten noch nicht vollständig manifestiert haben, wissen wir noch nicht genau, was für ein Chaos sie verursachen könnte. Frühe Berichte bieten nicht viel mehr als ein „Wir müssen abwarten“ (obwohl wir vielleicht nicht sehr lange warten müssen, da heutzutage immer häufiger neue Deepfake-Fälle auftreten, sodass bestimmte Punkte in diesem Artikel schnell veraltet sein können).

Die Nutzungsgründe: persönlich und politisch?

Vergleichbar mit Fake-News verfolgen auch Deepfake-Videos mehrere Zwecke: Einige werden nur angefertigt, weil sie amüsant und lustig sind, z.B. die Youtube-Kanäle, die dem Austausch von Schauspielergesichtern in Filmen gewidmet sind. Das ist auf der eher gutartigen Seite zu finden.

Dann gab es einige politische Fake-Videos. Vor kurzem tauchte ein Video von Nancy Pelosi auf, das nicht besonders stark gefälscht war, sondern nur verlangsamt, sodass sie betrunken zu sein schien. Das Video wurde tatsächlich von Präsident Trump geteilt. Dann kommen wir zu einem weiteren Beispiel dafür, was bisweilen als Deepfake durchgeht. In diesem Fall geht es um Ali Bongo, den Präsidenten von Gabun, dessen Gesundheitszustand als Quelle von Spekulationen diente. Dem Video folgte kurz darauf ein Putschversuch des gabunischen Militärs. Entscheidend ist nicht, ob das Video ein Deepfake ist, sondern die Tatsache, dass wir mehr denn je an allem zweifeln müssen, was wir präsentiert bekommen.

Derzeit tritt die häufigste Form von negativer Nutzung von Deepfake-Videos jedoch nicht im Rahmen der Umwälzung der Gesellschaftsordnung auf, sondern in unglücklichen Rachebeispielen aus dem Alltag. Meistens werden Frauen zu Opfern, deren Gesichter mit den Körpern von Pornodarstellerinnen kombiniert werden. Das erleben auch Prominente immer wieder mal. Darunter sind jedoch einige, die sich durch ihren hochkarätigen Status als geschützt fühlen vor jenen, die auf diese gefälschten Videos hereinfallen.

Die traurige Wahrheit

Die traurige Wahrheit sieht jedoch so aus, dass mit einer zunehmenden Anzahl an Videos und Bildern von Ihnen im Internet, es umso leichter fällt, Deepfake zu betreiben, obwohl die Technologie eigentlich immer ausgefeilter ist: Inzwischen reicht schon ein einziges Foto von Ihnen (Doch weiterhin gilt die Regel: Je mehr Material desto makelloser das Ergebnis). Die neueste Technologie beweist auch, dass Voice-over durch einen anderen Schauspieler gar nicht benötigt wird, sondern sich Text generieren lässt, der einfach jemandem in den Mund gelegt werden kann.

Regulierung und die Freiheit zu fälschen

Die Regulierung des Internets ist eine recht aufwendige Angelegenheit. Das Thema bleibt auch im Anschluss an die US-Präsidentschaftswahlen 2016 verworren, nachdem das Ausmaß der Verbreitung von Fake-News und deren Wirkung bekannt wurde. Mittlerweile widmet sich auch an den Schaltstellen der Politik dem Problem der Online-Fälschung. Vor kurzem wurde eine Anhörung vom House Intelligence Committee durchgeführt, um sich ausführlicher mit dem Thema auseinanderzusetzen.

Die Regulierung von Online-Fälschungen verletzt schon im Ansatz zahlreiche Grundsätze der freien Rede. Erstens sind Plattformen wie Facebook und Youtube, auf denen es von Fakes nur so wimmelt, private Unternehmen. Zweitens ist keine der beiden Plattformen eine journalistische Einrichtung. Sie sind lediglich Orte im Internet, an denen Inhalte veröffentlicht werden können.

Diese Websites können Inhalte ausschließen, wenn sie gegen Urheberrechtsgesetze verstoßen. Echte pornografische Inhalte werden ebenfalls ausgeschlossen. Im letzteren Fall wird diese Blockade nicht als problematische Zensur angesehen, sondern als das Recht anerkannt, dass beide Unternehmen die Veröffentlichung bestimmter expliziter Materialien nicht zulassen müssen.

Wie hat sich das ausgewirkt? Beim Verfassen dieses Artikels tauchte ein Deepfake von Mark Zuckerberg, dem CEO von Facebook, als Antwort auf die frühere Erklärung des Unternehmens auf, dass sie solche Inhalte nicht kontrollieren würden. Eine Lösung, die soziale Netzwerke als Reaktion auf gefälschte Inhalte verwendet haben, ist die Entpriorisierung, damit sie nicht als Empfehlungen erscheinen, was ihre Sichtbarkeit verringert. Und in Bezug auf die Popularität kann die Faktenprüfung Massenpanik und globale Umwälzungen verhindern, aber sie wird die Aufmerksamkeit nicht reduzieren. Das ziemlich vorhersehbare Fazit ist, dass selbst wenn Videos als Fälschungen entlarvt werden, sich Menschen davon nicht ablassen werden, sich diese auch anzusehen. Facebook bemerkte, dass die Pelosi-Fälschung immer noch angezeigt und geteilt wurde, obwohl sie entlarvt wurde.

Sie können verwendet werden. Ist das auch der Fall?

Es wird befürchtet, dass der nächste logische Schritt für Deepfake-Videos die Beeinflussung der öffentlichen Meinung bei den nächsten US-Präsidentschaftswahlen sein wird. Einige Stimmen haben widersprochen und darauf hingewiesen, dass es Deepfake-Videos schon lange genug gibt, um bereits zu einem politischen Werkzeug geworden zu sein, und die Tatsache, dass sie es noch nicht sind, ist ein Hinweis darauf, dass die guten alten gefälschten Nachrichten – die im Gegensatz zu Videos nicht immer digitale Signaturen enthalten, um die Fälschung zu enthüllen – immer noch besser sind als fortgeschrittene Technologien. Aber diesem Optimismus widersetzen sich ängstliche Forscher, die sich bemühen, feinere Methoden zur Erkennung zu finden. Ein Experte für Computerforensik meint dazu: „Wir werden in einem Verhältnis von 1 zu 100 von jenen übertrumpft“, die sich an der Weiterentwicklung von Deepfake-Videos versuchen.

Wie man sie erkennt

Wie bereits festgestellt, verbessern sich Deepfakes laufend, sodass sie schwieriger als solche auszumachen sind. Wenn Sie jedoch Ihr Auge üben möchten, folgen hier ein paar Hinweise, nach denen Sie suchen können.

  • Merkwürdiges Blinzeln. In der Tat: Gefälschte Gesichter haben keine echten Augen und Tränenkanäle usw., und wie auch immer echtes Blinzeln aussieht.... sie bekommen es nicht so gut hin.
  • Gesichtsbewegungen und Muskulatur sind mitunter abrupt, der Mund eines gefälschten Kopfes kann sich z. B. roboterhaft bewegen.
  • Veränderungen im Hautton und in der Beleuchtung. Das Video kann beim Drehen des Kopfes zappeln, fast wie schlechte Videospielgrafiken.
  • Eine seltsame Mischung aus zwei Gesichtern. Dies lässt sich vor allem bei komplexen Bewegungen feststellen, denn je mehr Bewegung, desto mehr Material und Originalwinkel werden benötigt, um eine überzeugende Fälschung anzufertigen.

Mit großartiger Technologie kommt große Verantwortung. Und wenn wir unseren Kopf und unsere freie Rede behalten wollen, müssen wir intelligentere Wege finden, um eine post-faktische digitale Welt zu verhindern.