Riesci a riconoscere un falso quando lo vedi? Nel lontano 1994, nel film Forrest Gump è stata utilizzata una forma di CGI per realizzare una scena in cui l'eponimo personaggio interagiva con un sorridente JFK. Nel 2015, nel film Fast & Furious 7 è stato fatto resuscitare l'attore Paul Walker morto durante le riprese e una tecnologia simile è stata utilizzata per Carrie Fisher, ormai deceduta, in un recente film di Star Wars. Insomma, per realizzare effetti del genere non sono più necessari né i mitici studios di Hollywood né budget astronomici.

Stiamo parlando dei cosiddetti "deepfake", video finti e molto convincenti la cui produzione è ormai diventata piuttosto semplice. A seconda del punto di vista, questi video possono suscitare ammirazione, timore o entrambe le cose. Certo è che una rappresentazione digitale contraffatta di te, quantomeno se realizzata a tua insaputa, suscita tutto fuorché ammirazione. In questo articolo analizzeremo il dilagante fenomeno dei video deepfake e i motivi per cui vengono considerati l'ultima evoluzione dell'era della disinformazione in cui viviamo.

Le origini

Il termine "deep" contenuto in "deepfake" fa riferimento a "deep learning", un metodo tramite cui l'intelligenza artificiale acquisisce i dati per diventare ancora più efficiente. In questo caso l'intelligenza artificiale utilizza i dati, che includono determinati movimenti facciali, per sovrapporre su un corpo esistente un nuovo volto. Mentre il termine "deepfake" è stato coniato molto di recente, l'origine del concetto non è affatto nuova. Negli ultimi 15 anni sono stati diversi i casi di divulgazione di immagini ritoccate con Photoshop (o immagini contraffatte o modificate con altri strumenti) con esiti imbarazzanti o addirittura problematici. Il fenomeno dell'alterazione dei video è diventato particolarmente allarmante dal momento che questa tecnologia un tempo costosa ed esclusiva adesso è diventata super-accessibile e immediata e non richiede il coinvolgimento di artisti nel settore degli effetti speciali hollywoodiani. Come se non bastasse, questa facilità di accesso coincide con la recente ondata di fake news con cui dobbiamo fare i conti nell'"era della disinformazione" citata prima.

Non stupisce, quindi, che nel 2018 a denunciare la gravità della situazione sia stato proprio un attore e regista, Jordan Peele, il cui video virale inizia con la sua imitazione vocale di Obama pronunciata da un video deepfake di Obama stesso. Il messaggio che Peele voleva trasmettere è che i finti discorsi politici sono ormai un dato di fatto ma bisogna "fare attenzione a non diventare una distopia".

Data la natura recente dei deepfake, le effettive potenzialità negative non si sono ancora manifestate appieno e non è nota l'entità dei danni che potrebbero causare. Dai primi report si evince che bisogna "aspettare e vedere cosa succede", ma poiché i casi di deepfake sono sempre più frequenti è probabile che non ci sia da attendere a lungo e che alcuni punti di questo articolo diventino presto obsoleti.

Le finalità di utilizzo: personali e politiche?

Proprio come accade per le fake news, anche i video deepfake vengono realizzati per scopi diversi. Alcuni vengono realizzati per puro divertimento, ad esempio i canali Youtube che si occupano di sostituire il volto degli attori nei film. Questo è lo scopo innocuo.

Poi sono apparsi i video politici contraffatti. Di recente è stato divulgato un video di Nancy Pelosi che non è un deepfake ma è soltanto rallentato in modo da farla sembrare ubriaca. In realtà il video è stato condiviso dal Presidente Trump. Esiste un altro esempio di presunto deepfake, questa volta del presidente del Gabon, Ali Bongo, i cui problemi di salute sono diventati una fonte di speculazione. Poco dopo il video è stato seguito da un tentato colpo di stato da parte dell'esercito gabonese. Che si tratti di un deepfake o meno, il punto è che ormai dobbiamo mettere in discussione tutto quello che vediamo.

Attualmente, tuttavia, l'uso negativo predominante dei video deepfake non è associato al sovvertimento dell'ordine sociale, quanto a spicciole strategie di vendetta. Il più delle volte le vittime sono donne il cui volto viene abbinato ai corpi di pornoattrici. Lo stesso accade anche alle celebrità, che in parte si sentono tutelate dalla buona reputazione che le contraddistingue e fa sì che il pubblico non dia valore a questi video contraffatti.

La triste verità

La triste verità è che più video e immagini personali ci sono online, più si è soggetti a deepfake, nonostante con il continuo avanzamento della tecnologia adesso basti una sola foto per realizzare un video di questo tipo (anche se più materiale si ha a disposizione, più semplice è l'impresa). Le ultime scoperte tecnologiche dimostrano come non sia nemmeno necessario il voice over di un altro attore, grazie alla possibilità di generare testo che può essere pronunciato dalla bocca del soggetto in questione.

Norme vigenti e libertà in ambito di contraffazione

La normativa in Internet è un tasto dolente. La questione è rimasta ampiamente indefinita dopo le elezioni presidenziali statunitensi del 2016, quando è diventata nota l'entità della predominanza e del potere delle fake news. Adesso il problema dei deepfake online sta conquistando l'attenzione a tutti i livelli, anche i più elevati. Di recente l'House Intelligence Committee ha tenuto una conferenza per analizzare il problema.

Anche solo in linea teorica, la regolamentazione delle contraffazioni online inizia a dar fastidio a chi difende la libertà di parola. In primo luogo, piattaforme come Facebook e Youtube, in cui è disponibile la maggior parte del materiale contraffatto, sono aziende private. In secondo luogo, nessuna delle due è un ente giornalistico. Si tratta semplicemente di piattaforme online in cui è possibile pubblicare contenuti.

Questi siti possono scegliere di escludere i contenuti in caso di violazione delle leggi sul copyright. Vengono esclusi anche i contenuti propriamente pornografici. In quest'ultimo caso, il blocco non viene considerato un atto di censura, ma viene accettato come il diritto che entrambe le aziende hanno di non consentire la pubblicazione di determinati contenuti espliciti.

Come si sono svolti i fatti? Durante la scrittura di questo articolo è comparso un deepfake del CEO di Facebook, Mark Zuckerberg, in risposta alla precedente dichiarazione con cui l'azienda affermava che non avrebbe esercitato alcun controllo sui contenuti di questo tipo. Una delle soluzioni che le piattaforme di social media hanno adottato in risposta ai contenuti contraffatti è ridurne la priorità in modo che non vengano visualizzati come suggerimenti, limitandone così la visibilità. In termini di popolarità, la verifica delle fonti consente di evitare il panico di massa e l'agitazione su scala globale, ma non attenua l'interesse suscitato. Tirando le somme, si può affermare che anche se un video viene etichettato come contraffatto, la voglia di vederlo non viene in alcun modo intaccata. Facebook ha rilevato che il fake di Pelosi ha continuato a essere visualizzato e condiviso anche dopo essere stato etichettato come tale.

Questi video possono essere utilizzati. Ma sarà davvero così?

Si teme che il passo successivo per i video deepfake sarà influenzare l'opinione pubblica nelle prossime elezioni presidenziali statunitensi. Alcuni hanno ribattuto che i video deepfake esistono già da tempo e il fatto che non siano ancora diventati uno strumento politico indica che le care vecchie fake news (le quali, a differenza dei video, non sempre contengono firme digitali che indicano la contraffazione) hanno ancora la meglio sulle tecnologie più avanzate. Questo ottimismo è però contrastato dai ricercatori che, spinti dall'apprensione, mirano a individuare metodi di rilevamento più sofisticati. Come afferma un esperto di informatica forense, ci troviamo in netto svantaggio rispetto a quanti puntano a migliorare i video deepfake, visto che la loro "potenza di fuoco è superiore alla nostra di 100 a 1".

Come individuarli

Come abbiamo già detto, i deepfake vengono ottimizzati continuamente, il che li rende più difficili da individuare. Per allenare l'occhio esistono comunque alcuni indicatori a cui prestare attenzione.

  • Uno strano modo di sbattere le palpebre. Sì, i volti finti non hanno occhi, condotti lacrimali e tutto il resto come nella realtà, pertanto se sbattono le palpebre si noterà qualcosa di strano.
  • È ad esempio possibile che la muscolatura e i movimenti facciali siano irregolari o che la bocca si muova in modo meccanico.
  • Cambi bruschi di illuminazione e colorito. È possibile che si verifichi uno sfarfallamento quando il personaggio gira la testa, come avviene nei videogiochi con una grafica scadente.
  • Uno strano mix di due volti. Questo indicatore può manifestarsi soprattutto durante i movimenti complessi, dal momento che in questi casi serve una maggiore quantità di filmato e di inquadrature originali per realizzare un fake convincente.

Livelli elevati di tecnologia comportano livelli elevati di responsabilità. Se non vogliamo rinunciare alla nostra libertà di pensiero e di parola, dobbiamo trovare soluzioni più intelligenti per impedire di essere sopraffatti da un mondo digitale post-reale.