34985268742
Blog AVG Signal Segurança Golpes Vídeos “deepfake”: há alguma forma de se proteger disso?
Deepfake_Videos-Is_There_Anything_You_Can_Do_to_Protect_Yourself-Hero

Escrito por Colin Asher
Publicado em June 24, 2019

Estamos falando sobre uma nova forma de produzir vídeos falsos de forma convincente, conhecidos como deepfakes. Dependendo de como você olhe para a situação, isso pode parecer algo bem legal, assustador ou, quem sabe, ambos. O que podemos dizer com certeza é que as falsificações digitais de uma pessoa sem o seu conhecimento ou consentimento não é nada legal. Este artigo explora o incrível fenômeno dos deepfakes e como eles são o próximo passo no avanço da era da desinformação que nos encontramos agora.

Este artigo contém:

    Origens

    O “deep” de deepfake tem o mesmo sentido de deep learning (aprendizagem profunda, em tradução livre). Esse é um método no qual uma inteligência artificial (IA) coleta dados para se tornar, digamos, mais inteligente. Nesses caso, a IA usa esses dados, que incluem determinados movimentos faciais, para colocar um novo rosto em um corpo já existente. Enquanto deepfake é um termo cunhado recentemente, sua origem e conceito não são nada novos. Já faz pelo menos 15 anos que as pessoas têm lutado contra imagens alteradas em editores de foto com resultados que algumas vezes são problemáticos e outras, engraçados. O que causa angústia nesses vídeos manipulados é o fato de que essa tecnologia, que costumava ser caríssima, está agora bem acessível e assustadoramente eficaz. Além disso, ela dispensa a necessidade de experts em efeitos especiais de Hollywood para fazer esse trabalho. E infelizmente, o surgimento dessa nova descoberta coincide com o recente fluxo de fake news que temos combatido nessa “Era da Desinformação”.

    Dessa forma, até faz sentido que um alerta de 2018 para impedir vídeos manipulados tenha vindo de um ator e diretor de cinema, o Jordan Peele. Ano passado, ele lançou um vídeo viral que começa com sua voz dublando Obama em um vídeo deepfake do ex-presidente dos EUA. A mensagem de Peele enfatiza que discursos políticos falsos e convincentes são agora uma realidade. No entanto, sua conclusão se limita a dizer "prestem atenção para que não nos tornemos uma distopia".

    Como essa coisa de deepfake é muito recente e as possibilidades negativas dessa ferramenta ainda não emergiram completamente, ainda não podemos avaliar o seu potencial de estrago. Relatórios recentes não oferecem muito mais do que um “teremos que esperar para ver” (apesar de que, talvez, essa espera não demore muito tempo, já que novos casos de deepfake estão aparecendo com mais frequência. Assim, alguns pontos desse artigo podem se tornar obsoletos rapidamente).

    Na vida pessoal e na política

    Assim como as fake news, os vídeos deepfake têm uma variedade de propósitos. Alguns são apenas divertidos e engraçados, como por exemplo canais de Youtube dedicados a mudar os rostos de atores em filmes. Mas isso fica do lado bom da força.

    Mas há alguns vídeos falsos com teor político. Um deles envolve a política norte-americana Nacy Pelosi. E olha que as imagens nem sofreram intervenção pesada. O autor do manipulação apenas diminuiu a velocidade da ação para que Pelosi parecesse bêbada. O vídeo foi compartilhado até mesmo pelo presidente Trump. Há um outro exemplo que se acreditava ser um deepfake. Dessa vez, a vítima foi o presidente do Gabão, Ali Bongo, cujos problemas de saúde tem sido fonte de especulação. Logo depois do lançamento do vídeo, houve uma tentativa de golpe pelos militares daquele país. Quer o vídeo seja falso ou não, o ponto é que agora temos que questionar tudo o que vemos como nunca antes.

    Apesar de que, atualmente, o uso negativo mais comum de vídeos deepfake não tem sido a revolta com a ordem social, mas exemplos infelizes de vingança cotidiana. Mais comumente, são mulheres as principais vítimas desses casos, com seus rostos sendo colocados em corpos de atrizes de filmes pornográficos. Isso também acontece com celebridades, mas algumas acreditam que sua fama as protegem, fazendo com que as pessoas não acreditem nesses vídeos falsos.

    A verdade crua e nua

    A triste realidade é que quanto mais vídeos e imagens suas estiverem online, mais fácil é montar vídeos falsos com você. O pior é que essa tecnologia tem evoluído muito. Agora é possível fazer esses vídeos com apenas uma foto sua, apesar de que quanto mais imagens, melhor os resultados. As últimas tecnologias também mostram que a dublagem por outro ator não é mais necessária. No lugar dela, um texto pode ser gerado para permitir que novas palavras sejam colocadas na boca de alguém.

    Regulação e a liberdade de falsificar

    Regulação na internet é uma coisa maldita. O caso sobre a corrida presidencial norte-americana de 2016 continua completamente confuso. Foi naquele momento em que o mundo tomou conhecimento sobre o domínio e o poder das fake news. Agora o problema de falsificação de vídeos está conquistando a atenção de pessoas influentes. Recentemente, uma audição ocorreu no Comitê de Informações da Câmara dos EUA para investigar o assunto.

    Mesmo em desenvolvimento, a regulação de falsificações online começa a pisar nos pés da liberdade de expressão. Primeiramente, plataformas como o Facebook e Youtube, onde muita das falsificações foram publicadas, são corporações privadas. Segundo, nenhuma dessas plataformas é uma entidade jornalística. Elas são meros locais na internet que publicam conteúdo de seus usuários.

    Esses sites podem excluir conteúdo que violam leis de direitos autorais. Conteúdos pornográficos também podem ser removidos. Nesse último caso, a remoção não é vista como uma censura problemática. Pelo contrário. Ela é entendida como um direito que ambas as empresas têm de não permitir a publicação de certos materiais explícitos.

    Como isso aconteceu? Enquanto escrevo este artigo, uma deepfake do CEO do Facebook, Mark Zuckerberg, apareceu como resposta à uma declaração antiga da companhia de que não controlaria esse tipo de conteúdo. Uma solução que as plataformas de mídias sociais têm usado em resposta a conteúdos falsos é tirar a prioridade delas para que não apareçam como recomendações para diminuir sua visibilidade. Em termos de popularidade, a checagem de fatos pode prevenir o pânico geral e uma revolta global, mas não vai evitar o interesse do público. O previsível fim de tudo isso é que nada vai impedir as pessoas de quererem ver esses vídeos, mesmo quando eles forem identificados publicamente como falsos. O Facebook informou que o deepfake de Pelosi ainda era visto e compartilhado, mesmo depois de ser desmascarado.

    Eles podem ser usados. Mas serão?

    Há um temor de que o próximo passo dos vídeos deepfake seja o seu uso na influência pública durante as próximas eleições presidenciais dos EUA. Alguns tem refutado essa ideia, dizendo que os deepfakes não estão por aí por tempo suficiente para se tornarem uma ferramenta política. Por outro lado, essa seria uma indicação de que a “boa” e velha fake news - que ao contrário do vídeo, não contém uma assinatura digital para revelar que é falsa - ainda supera as tecnologias mais avançadas. Mas esse “otimismo” é contrariado pelo receio de pesquisadores que estão desenvolvendo métodos mais sofisticados para identificar esse material. Como diz um especialista em computação forense, para cada avanço que fazemos, somos desarmados 100 vezes por aqueles que tentam melhorar os deepfakes.

    Como identificá-los

    Como dissemos, os deepfakes estão sempre evoluindo. Isso quer dizer que é cada vez mais difícil identificá-los. De qualquer forma, se você quer treinar seus olhos, seguem algumas dicas para prestar atenção.

    • Piscadas de olhos estranhas Sim, rostos falsificados não têm olhos reais, canais lacrimais ou qualquer coisa que uma piscada verdadeira tem. Então, provavelmente não farão isso muito bem.

    • Movimentos e musculatura faciais podem parecer bruscos, por exemplo, a boca de um rosto falso pode se mexer como um robô.

    • Mudanças no tom da pele e iluminação. O vídeo pode balançar quando a cabeça vira de um lado para outro, quase como o gráfico de um videogame ruim.

    • Mistura esquisita de duas faces. Isso pode ser revelado principalmente em movimentos complexos, porque quanto mais movimentos, mais fotos e ângulos originais são necessários para fazer uma falsificação convincente.

    Grandes tecnologias trazem grandes responsabilidades. E se quisermos manter nossas cabeças no lugar e nossa liberdade de expressão, vamos precisar de formas mais inteligentes de prevenir um mundo da pós-verdade digital.

    Proteja seu iPhone contra ameaças com o AVG Mobile Security

    Instalação gratuita

    Proteja seu Android contra ameaças com o AVG AntiVirus

    Instalação gratuita
    Golpes
    Segurança
    Colin Asher
    24-06-2019