¿Reconoce una imitación cuando la ve? Ya en 1994 se utilizó una forma de CGI (imágenes generadas por ordenador) en la película Forrest Gump para mostrar al epónimo personaje ficticio interactuar con un sonriente JFK. En 2015, la película Fast & Furious 7 resucitó al actor Paul Walker, que había muerto durante el rodaje, y una semivida similar de alta tecnología aguardaba a Carrie Fisher en una reciente película de Star Wars. ¿Pues sabe qué? Ya no hace falta un estudio de Hollywood y millones de dólares para hacer algo así.

Estamos hablando de la facilidad con la que ya se pueden producir vídeos falsos convincentes, lo que se conoce como «deepfakes». Dependiendo de su punto de vista, puede ser algo genial, terrorífico o, tal vez, ambas cosas a la vez. En lo que seguro que no hay duda es en que no tiene nada de genial que se pueda elaborar una falsificación digital de usted, al menos sin su conocimiento o consentimiento. Este artículo explora el novedoso fenómeno de los vídeos deepfake y cómo son el siguiente paso en la evolución de la era de la desinformación en la que estamos sumidos.

Los orígenes

El «deep» (profundo) del término se refiere al aprendizaje profundo, un método por el que la inteligencia artificial recaba datos para hacerse más lista. En este caso, la IA utiliza sus datos, lo que incluye determinados movimientos faciales, para superponer una cara nueva sobre un rostro y un cuerpo existentes. Aunque el término «deepfake» es de muy reciente acuñación, el origen del concepto no tiene nada de nuevo. La gente lleva los últimos 15 años lidiando con los resultados, a veces problemáticos y a veces divertidos, de las imágenes retocadas con Photoshop (o de cualquier imagen falsificada o alterada por medios digitales). Lo que hace especialmente penoso el estado actual de la alteración de vídeos es que esta tecnología, antes tan cara como excepcional, ahora está al alcance de cualquiera, es terroríficamente efectiva y ya no requiere de un especialista de Hollywood en efectos especiales. Y, por desgracia, todas estas facilidades han coincidido con la reciente inundación de bulos (fake news) a los que hemos de enfrentarnos en la mencionada «era de la desinformación».

Probablemente sea lógico que la advertencia de alto nivel que nos llegó en 2018 acerca del auge del deepfake procediera de un actor y director de cine, Jordan Peele, cuyo vídeo viral comienza con su imitación de la voz de Barack Obama, unas palabras que pronuncia un vídeo falsificado del ex presidente. El mensaje de Peele es que es posible crear discursos políticos falsos convincentes, aunque su conclusión final es que «tenemos que estar atentos para no convertirnos en una distopía».

Como el asunto del deepfake está recién salido del horno y no se han manifestado por completo sus aparentes posibilidades negativas, aún no conocemos la naturaleza exacta del caos que puede llegar a provocar. Los primeros informes no ofrecen mucho más que un «hay que esperar a ver» (aunque es posible que no demasiado, ya que cada día aparecen más casos; con toda probabilidad, determinados puntos de este artículo quedarán obsoletos muy pronto).

Los usos: ¿personales o políticos?

Como los bulos, los vídeos deepfake sirven a distintos propósitos. Algunos se crean porque son entretenidos y graciosos, como los canales de YouTube dedicados a cambiar la cara de los actores en las películas. Ese es el lado más benigno.

Y luego están los vídeos políticos falsos. Hace poco vimos un vídeo de Nancy Pelosi que ni siquiera era un deepfake, simplemente se había ralentizado para que pareciera estar ebria. Este vídeo llegó a compartirlo el presidente Trump. Luego tenemos otro caso que se cree que es un deepfake, esta vez del presidente de Gabón, Ali Bongo, cuyo estado de salud ha sido fuente de especulación. Poco después de publicarse este vídeo, el ejército del país intentó dar un golpe de Estado. Se tratara de un deepfake o no, el caso es que ahora tenemos que empezar a poner en duda lo que vemos.

Sin embargo, en estos momentos, el uso pernicioso más habitual de los vídeos deepfake no es la subversión del orden social, sino algunos casos lamentables de venganza cotidiana. Por lo general, las víctimas son mujeres cuyo rostro se inserta en el cuerpo de actrices de cine pornográfico. También le ha sucedido a algunas celebridades, aunque hay quien cree que su alto perfil las protege, ya que nadie pensará de verdad que estos vídeos son auténticos.

La triste verdad

La triste verdad es que, cuantos más vídeos e imágenes suyas haya en la red, más fácil es que sea víctima del deepfake, aunque la tecnología no deja de mejorar y ya basta una simple foto suya (aunque es conveniente contar con más material para que el resultado sea más uniforme). Los últimos avances también demuestran que ya ni siquiera es necesario que otro actor grabe un texto sobre el vídeo, pues posible generar una locución y poner nuevas palabras en boca de alguien.

Regulación y la libertad para falsificar

Regular Internet es endiabladamente complicado. El asunto quedó más que enfangado tras las elecciones presidenciales de Estados Unidos de 2016, cuando se supo hasta qué punto y con qué eficacia se había extendido toda clase de bulos. Hoy en día, el problema del deepfake en línea comienza a atraer la atención de las altas instancias. Hace poco, la Comisión Permanente Selecta sobre Inteligencia de la Cámara de Representantes celebró una vista para investigar este asunto.

Incluso en sus primeras fases, la regulación de las falsificaciones empieza a tropezarse con el derecho a la libertad de expresión. En primer lugar, plataformas como Facebook y YouTube, donde residen muchas de las falsificaciones, son corporaciones privadas. En segundo lugar, ninguna de estas dos plataformas es una entidad periodística. Son meros espacios en línea donde puede publicarse contenido.

Estos sitios pueden optar por excluir contenido que infrinja las leyes de copyright. El contenido pornográfico también queda excluido. En este último caso, el bloqueo no se considera problemático, ya que se acepta que ambas empresas tienen derecho a no permitir la publicación de determinado material explícito.

¿En qué ha quedado todo? En el momento de escribir este artículo, ha aparecido un vídeo deepfake del director ejecutivo de Facebook, Mark Zuckerberg, como respuesta a la declaración previa de la empresa de que no pensaba regular dicho contenido. Una solución que las plataformas de redes sociales han empleado como respuesta al contenido falso es no darle prioridad para que no aparezca en las recomendaciones, lo que reduce su visibilidad. Y en términos de popularidad, la verificación de datos (fact-checking) puede prevenir el pánico general y un levantamiento global, pero no que exista interés. Como era más que previsible, incluso cuando se demuestra que un vídeo es falso, la gente sigue queriendo verlo. Facebook detectó que el vídeo falso de Pelosi seguía viéndose y compartiéndose, aunque se hubiera demostrado su falsedad.

Se pueden utilizar. Pero ¿se utilizarán?

Se teme que el siguiente paso lógico para los vídeos deepfake sea influir en el pensamiento general de cara a las próximas elecciones presidenciales en Estados Unidos. Algunos lo rebaten diciendo que estos vídeos llevan entre nosotros el tiempo suficiente como para haberse utilizado como arma política, y que si no se ha hecho ya es porque los bulos de toda la vida (que, al contrario que los vídeos, no siempre incluyen firmas digitales que revelan la falsedad) siguen siendo superiores a las tecnologías más avanzadas. A este optimismo se contraponen investigadores temerosos que se esfuerzan por dar con mejores métodos de detección. Como explica un experto en informática forense, quienes intentan mejorar los vídeos deepfake «nos superan en una relación de 100 a 1».

Cómo detectarlos

Como hemos dicho, los deepfakes mejoran de manera constante, por lo que son cada vez más difíciles de detectar. Sin embargo, si quiere entrenar el ojo, puede estar atento a los siguientes indicios.

  • Parpadeo extraño. Sí, las caras falsas no tienen ojos de verdad, lagrimales, etcétera, por lo que dan la impresión de... no saber parpadear demasiado bien.
  • Los movimientos faciales y musculares pueden ser poco naturales. Por ejemplo, la boca de una cabeza falsa puede moverse de forma robótica.
  • Cambios en el tono de piel y la iluminación. El vídeo puede dar saltos cuando la cabeza se gira, casi como en los gráficos de un videojuego malo.
  • Una mezcla extraña de dos caras. Este efecto puede revelarse especialmente durante los movimientos complicados, ya que, cuanto más movimiento hay, más grabaciones y ángulos originales se necesitan para que la falsificación sea convincente.

Una gran tecnología conlleva una gran responsabilidad. Y si queremos conservar nuestra auténtica cabeza y nuestro derecho a la libertad de expresión, tendremos que dar con modos más inteligentes de evitar un mundo digital en el que la verdad haya dejado de tener sentido.