Savez-vous reconnaître un fake ? En 1994, le film Forrest Gump avait déjà eu recours à une forme d’animation par ordinateur pour montrer le personnage fictif éponyme interagissant avec un JFK radieux. En 2015, le film Furious 7 a ressuscité l'acteur Paul Walker, décédé pendant le tournage. Et dans un récent film de Star Wars, Carrie Fisher est recréée numériquement après sa mort. Vous savez quoi ? Ces petites fantaisies ne sont plus réservées aux studios hollywoodiens et leur coût est tout à fait abordable.

En effet, il y a de nouvelles façons très simples et très efficaces de créer de fausses vidéos (« deepfake »). Cela peut vous paraître cool ou effrayant, voire les deux à la fois. En tout cas, si cela peut vous toucher (à votre insu), ce n’est pas drôle du tout. Cet article enquête sur le phénomène des deepfake et sur le nouveau seuil franchi dans l'ère de la désinformation.

Origines

« Deep » fait référence à l’apprentissage approfondi, une méthode grâce à laquelle l’IA collecte des données pour devenir plus intelligente. Dans ce cas, l'IA utilise ses données, qui incluent certains mouvements du visage, pour superposer et créer un nouveau visage au corps existant. Si le terme « deepfake » est très récent, le concept n’est pas nouveau. Depuis 15 ans, les images photoshoppées (ou toute image numérisée ou altérée) se multiplient et sont tour à tour problématiques ou drôles. Ce qui rend la vidéo altérée inquiétante, c’est qu’une technologie jadis coûteuse et exceptionnelle est désormais accessible à tous. Il n'y a plus besoin d’avoir recours à des artistes spécialisés dans les effets spéciaux hollywoodiens. Et malheureusement, cette facilité se reflète dans le flot de fausses nouvelles dont « l’ère de la désinformation » nous inonde.

En 2018, Jordan Peele, acteur et producteur de film, a lancé un avertissement très médiatisé à propos des deepfake. Dans une vidéo truquée, il présente Obama en train de parler. Son objectif était alors souligner le fait que certains faux discours politiques sont très convaincants et qu’il ne faudrait surtout pas « tomber dans une dystopie ».

Comme cette tendance du deepfake est toute récente et que son potentiel négatif ne s’est pas encore pleinement manifesté, on ne sait pas encore la nature exacte des dégâts qu’elle pourrait causer. Les premiers rapports se cantonnent à « voyons ce qu’il se passe » (on ne devrait pas avoir à attendre trop longtemps car on voit de plus en plus de nouveaux deepfake et certains points de cet article pourraient vite devenir obsolètes) .

Usage personnel et politique ?

Comme pour les fausses informations, les deepfake peuvent être utilisées à diverses fins. Certaines sont seulement pour rigoler, comme sur les chaînes Youtube dédiées à la commutation de visages d’acteurs dans des films. C’est bon enfant.

D’autres sont d'ordre politique, comme dans la vidéo où Nancy Pelosi a l’air saoule et que le président Trump a partagée. Cette vidéo n’était même pas truquée, juste ralentie. Un autre exemple de ce qu'on croit être un deepfake : une vidéo du président gabonais, Ali Bongo, dont les problèmes de santé font spéculer. Très peu de temps après la vidéo, l’armée gabonaise a fait une tentative de coup d'État. Qu'il s'agisse d'une deepfake ou non, le résultat est que nous devons désormais remettre en question tout ce que nous voyons.

Pour le moment, les deepfake mal intentionnées n’ont pas visé à bouleverser l’ordre social, mais plutôt à se venger dans la vie de tous les jours. Le plus souvent, les victimes sont des femmes dont le visage a été superposé sur le corps d’actrices pornographiques. Cela arrive aussi aux célébrités, bien qu’elles se croient protégées par leur profil très médiatisé.

La triste vérité

Malheureusement, plus il y a de vidéos et d'images de vous sur Internet, plus il est facile de faire une deepfake de vous. Et avec les progrès de la technologie, il suffit désormais d'une seule photo (même si plus il y a d’images, meilleure est la fluidité). Avec les dernières technologies, il n’y a même plus besoin d’utiliser une voix off, on peut juste générer un texte pour faire dire ce qu’on veut à quelqu’un.

Régulations et liberté de contrefaçon

Réguler Internet a toujours posé problème. Depuis les élections présidentielles américaines de 2016, durant lesquelles on a pu mesurer le pouvoir des fausses nouvelles, les deepfake laissent perplexe. Le sujet des deepfake a attiré l'attention de la justice et le House Intelligence Committee a récemment tenu une audience pour étudier le sujet.

Rien qu’au stade de la conception, la législation des faux en ligne commence à piétiner celle de la liberté de parole. Tout d’abord, parce que les plates-formes comme Facebook et Youtube, où se concentre l’essentiel des deepfake, sont des sociétés privées. Ensuite, parce qu’aucune de ces deux plate-formes n’est une entité journalistique. Ce ne sont que des endroits où on peut poster du contenu en ligne.

Ces sites peuvent choisir d'exclure du contenu lorsqu'il enfreint les lois sur les droit d'auteur ou qu’il s’agit de contenu pornographique authentique. Cette dernière censure ne pose pas problème car les deux entreprises sont dans le droit de ne pas autoriser la publication de contenu explicite.

Où en sommes-nous ? Pendant la rédaction de cet article, a circulé un deepfake du fondateur de Facebook, Mark Zuckerberg, après qu’il ait déclaré que Facebook ne contrôlerait pas ce contenu. Pour réagir au faux contenu, certaines plates-formes de médias sociaux ont décidé de réduire sa visibilité en ne le proposant pas en priorité afin qu’il n’apparaisse pas dans les recommandations. En termes de popularité, la vérification des vidéos pourra empêcher les vagues de panique mondiale, mais elle n’en réduira pas l’intérêt. Au final, même si les vidéos sont déclarées truquées, les gens ont quand même envie de les voir. Facebook a fait remarquer que même si on sait qu’elle est truquée, la deepfake de Pelosi était toujours aussi visionnée et commentée qu’avant.

On peut les utiliser, mais le fera-t-on ?

Certains craignent que la prochaine étape logique pour les deepfake soit d’influencer la pensée publique lors de la prochaine élection présidentielle américaine. D’autres ont rétorqué qu’elles auraient pu être utilisées depuis déjà longtemps mais que rien ne vaut de bonnes vieilles fausses informations qui, contrairement aux vidéos, ne contiennent pas toujours de signatures numériques pour détecter le faux. En attendant, des chercheurs moins optimistes essaient de trouver des méthodes de détection plus fines. Comme l’a déclaré un expert en criminalistique informatique, « nous sommes 1 contre 100. »

Comment les reconnaître

Comme nous l’avons dit, les deepfake s’améliorent constamment et seront donc plus difficiles à repérer. Toutefois, si vous souhaitez vous entraîner les yeux, voici quelques pistes.

  • Battement des paupières étrange. Les faux visages n’ont pas de vrais yeux ni de conduits lacrymaux. Donc, même s’ils clignent des yeux, il y aura quelque chose de louche...
  • Mouvements du visage et la musculature. Ils peuvent être saccadés, ou bouger de manière robotique, surtout la bouche.
  • Changement de teint et d'éclairage. Lorsque la tête tourne, la vidéo peut s’agiter et rappeler de mauvais graphismes de jeux vidéo.
  • Mélange bizarre de deux visages. Les vidéos peuvent se trahir lors de mouvements complexes car plus il y a de mouvement, plus il faut de métrage et d'angles originaux pour fabriquer un faux convaincant.

Qui dit technologie de pointe dit plus de responsabilités. Si nous voulons garder notre liberté de pensée et de parole, nous devrons trouver des moyens plus intelligents d’éviter un monde numérique post-vérité.