U ziet het meteen wanneer iets nep is? Al in 1994 werd er in de film Forrest Gump een vorm van CGI (computer-generated imagery) toegepast om het gelijknamige fictieve personage de hand te laten schudden van een glimlachende JFK. In 2015 werd in de film Furious 7 acteur Paul Walker, die halverwege het maken van de film was overleden, tot leven gewekt. En een vergelijkbare digitale wederopstanding viel ook de overleden Carrie Fisher ten deel in een recente Star Wars-film. Het bijzondere is dat er geen Hollywood-studio's en miljoenenbudgetten meer voor nodig zijn om dit soort stunts uit te halen.

Zo makkelijk is het tegenwoordig om overtuigende nepvideo's (“deepfakes”) te maken. Afhankelijk van uw standpunt is dat cool, doodeng of misschien allebei. Dat digitale nepbeelden van u – althans, als die zonder uw medeweten of toestemming zijn gemaakt – niet zo cool zouden zijn, staat als een paal boven water. In dit artikel besteden we aandacht aan het nieuwe fenomeen van deepfake-video's en onderzoeken we hun rol in het tijdperk van de desinformatie waarin we ons momenteel bevinden.

Oorsprong

Het “deep” in deepfake verwijst naar “deep learning”: een methode waarbij kunstmatige intelligentie (AI, artificial intelligence) zichzelf slimmer maakt door gegevens te verzamelen. In dit geval worden de beschikbare gegevens, waaronder bepaalde gezichtsuitdrukkingen, gebruikt om een nieuw gezicht te monteren over een bestaand gezicht op een bestaand lichaam. De term “deepfake” bestaat nog maar kort, maar het concept is allesbehalve nieuw. Al ten minste vijftien jaar hebben we te maken met soms problematische, soms grappige gefotoshopte of op andere manieren digitaal bewerkte foto's. Maar de nepvideo's van nu zijn des te beangstigender omdat de voorheen peperdure technologie inmiddels heel toegankelijk is, er bizar vloeiend uitziet en er geen special-effectsexperts uit Hollywood voor nodig zijn om de beelden te maken. En dat, jammer genoeg, nu we kampen met een orkaan van nepnieuws in het “tijdperk van de desinformatie”.

Het zal waarschijnlijk geen verbazing wekken dat nota bene een een filmacteur en regisseur, Jordan Peele, in 2018 waarschuwde voor het dreigende 'deepfaken'. In zijn deepfake-video (die viral ging) lijkt Obama de kijker toe te spreken, maar in werkelijkheid gaat het om woorden die hem door de acteur in de mond zijn gelegd. Peele wijst erop dat overtuigende neptoespraken door politici nu realiteit zijn, maar concludeert alleen dat we ervoor moeten waken dat dit niet uitdraait op een dystopie, meer niet.

Het hele deepfake-fenomeen is nog zo hot en nieuw, en de kennelijke negatieve mogelijkheden zijn nog niet volledig doorgedrongen. We hebben dus geen idee hoe groot de schade kan worden. De eerste berichten komen niet verder dan “het is afwachten” (lang hoeft dat niet te duren, want de laatste tijd verschijnen er steeds vaker nieuwe deepfakes, dus de kans is groot dat dit artikel op bepaalde punten snel achterhaald raakt).

De toepassingen: persoonlijk en politiek?

Net als bij nepnieuws kunnen mensen met deepfake-video's uiteenlopende bedoelingen hebben. Sommige deepfakes zijn vermakelijk en grappig, zoals de video's op YouTube waarin de gezichten van acteurs in films worden verwisseld. Onschuldig vermaak.

Daarnaast duiken er af en toe politieke nepvideo's op. Zo was er onlangs een video van Nancy Pelosi die niet eens was 'gedeepfaket', maar alleen vertraagd werd afgespeeld. Daardoor leek het alsof ze dronken was. Die video werd zelfs gedeeld door president Trump. Of wat te denken van die video over de president van Gabon, Ali Bongo, die gezondheidsproblemen zou hebben, een video die eveneens wordt beschouwd als een deepfake. Kort na het verschijnen van de video deden Gabonese militairen een couppoging. Of de video nu een deepfake was of niet, het punt is dat we die vraag nu moeten stellen bij alles wat we zien.

Tot dusverre lijken de bekendste deepfake-video's er niet op gericht de samenleving te ontwrichten, maar gaat het om alledaagse, zij het betreurenswaardige wraakacties. Meestal worden vrouwen het slachtoffer van video's waarin hun gezicht op het lichaam van de een of andere pornoactrice wordt gemonteerd. Ook beroemdheden hebben hiermee te maken, maar zij schijnen soms te denken dat hun grote bekendheid voorkomt dat mensen erin tuinen.

De trieste waarheid

Het trieste is dat hoe meer video's en beelden er van u online staan, des te makkelijker het wordt om u te deepfaken (hoewel de technologie voortdurend verbetert en één foto inmiddels genoeg is). Hierbij geldt wel: hoe meer beelden, des te vloeiender de bewegingen. De technologie is inmiddels zo ver gevorderd dat het niet meer nodig is om de tekst door een acteur te laten inspreken. De woorden kunnen worden gegenereerd en daardoor is het mogelijk mensen andere woorden in de mond te leggen.

Vrijheid van fake-uiting en regelgeving

Op internet is het verdraaid lastig regelgeven. In de nasleep de Amerikaanse presidentsverkiezingen in 2016 was de verwarring groot, toen bekend werd hoe invloedrijk en machtig nepnieuws kan zijn. Het valt bepaald niet mee om bij de hoogste instanties om aandacht te vragen voor deepfake-video's online. Onlangs hield de Inlichtingencommissie van het Amerikaanse Huis van Afgevaardigden een hoorzitting om het onderwerp te onderzoeken.

Zelf in conceptvorm kunnen er bij de regulering van onlinefakevideo's al problemen ontstaan met de vrijheid van meningsuiting. Ten eerste zijn platforms als Facebook en YouTube, waar veel van de nepbeelden verschijnen, privéondernemingen. Ten tweede is geen van die platforms een journalistieke entiteit. Het zijn slechts plekken op internet waar inhoud kan worden geplaatst.

De websites kunnen ervoor kiezen inhoud uit te sluiten wanneer er copyrightwetten worden overtreden. Ook pornografische inhoud wordt uitgesloten. Bij het blokkeren van dit soort inhoud zou geen sprake zijn van problematische censuur, maar wordt ervan uitgegaan dat beide bedrijven het recht hebben om de publicatie van expliciet materiaal niet toe te staan.

Wat is er sindsdien gebeurd? Inmiddels is als reactie op een eerdere verklaring van het bedrijf dat het dergelijke inhoud niet zou controleren een deepfake-video verschenen van Facebook-CEO Mark Zuckerberg. Om nepinhoud te bestrijden verlagen sociale-mediaplatforms de prioriteit ervan zodanig dat het nepnieuws niet meer bij de aanbevelingen verschijnt. Hiermee wordt nepnieuws dus minder zichtbaar. En wat de populariteit betreft: het controleren van de feiten mag dan misschien massale paniek en wereldwijde onrust voorkomen, de belangstelling voor deepfakes zal er niet door verminderen. De tamelijk voor de hand liggende conclusie is dat zelfs als nepvideo's worden ontmaskerd, het mensen er zeker niet van weerhoudt om ze te bekijken. Facebook geeft aan dat de nepvideo van Pelosi ook na zijn ontmaskering nog steeds wordt bekeken en gedeeld.

Deepfakes kunnen worden gebruikt. Maar gebeurt dat ook?

De volgende stap in het deepfake-gebeuren lijkt voor de hand te liggen: het beïnvloeden van de publieke opinie bij de volgende Amerikaanse presidentsverkiezingen. Is die angst terecht? Volgens sommigen zal het zo'n vaart niet lopen: deepfake-video's bestaan immers al langer en zijn inmiddels uitgegroeid tot een politiek instrument. Dat dat instrument nog niet is ingezet, geeft aan dat het oude vertrouwde nepnieuws – dat in tegenstelling tot nepvideo's niet altijd is voorzien van een digitale handtekening – de technologie nog steeds de baas is. Dat optimisme wordt overigens niet gedeeld door angstige onderzoekers die alle zeilen moeten bijzetten om betere detectiemethoden te bedenken. Een forensisch computerexpert formuleert het zo: "we maken geen schijn van kans" tegenover degenen die de kwaliteit van deepfake-video's juist proberen te verbeteren.

Hoe u ze herkent

Zoals gezegd worden deepfakes steeds beter en daardoor wordt het dus ook steeds lastiger om ze te herkennen. Voor wie zijn ogen erop wilt trainen, volgen hier een paar tips.

  • Raar knipperen met de ogen. Nee, nepgezichten hebben geen echte ogen, traanbuisjes, enzovoort, en daarom ziet het oogknipperen er waarschijnlijk niet zo realistisch uit.
  • Schokkerig bewegen van het gezicht en de gezichtsspieren. Zo kan de mond van een nephoofd bijvoorbeeld robotachtig bewegen.
  • Verspringen van huidtinten en belichting. Het kan zijn dat de videobeelden schokkerig bewegen wanneer het hoofd wordt gedraaid, zoals bij een computergame van slechte kwaliteit.
  • Een vreemde mengeling van twee gezichten. Met name bij complexe bewegingen valt dit op, want hoe meer beweging, des te meer beelden en oorspronkelijke standpunten er nodig zijn om het er overtuigend te laten uitzien.

Krachtige technologie brengt grote verantwoordelijkheid met zich mee. En wie het hoofd koel wil houden en de vrijheid van meningsuiting een warm hart toedraagt, moet slimmere manieren bedenken om een digitale wereld waarin de waarheid er niet meer toe doet af te wenden.