O assunto deepfake veio à tona recentemente, quando o animador e editor de vídeos Bruno Sartori publicou em seu Twitter um vídeo que ele próprio criou: o “Chapolim Bolsonaro”. O meme viralizou, e agora todo mundo quer saber que tecnologia é essa.
Por isso, neste post vamos mostrar que ferramenta é esta, que usa a inteligência artificial para trocar o rosto das pessoas, alguns exemplos perturbadores e porquê ela pode ser preocupante.
- Veja também: O que é e como entrar na deep web pelo PC ou celular
O que é deepfake
Há poucos dias atrás, muitos brasileiros ouviram pela primeira vez o termo “deepfake”. Foi através do meme do “Chapolim Bolsonaro” publicado no Twitter. Com o sucesso do meme, muitos perguntaram “o que é deepfake?”. Veja o vídeo abaixo:
Criticavam os discursos aleatórios de Dilma e elegeram o BOLSONARO? pic.twitter.com/jzJpPXXKYk
— Bruno Sartori (@brunnosarttori) May 18, 2019
O termo “deepfake” é uma fusão das palavras deep learning (aprendizagem profunda em inglês) e fake (falso em inglês). Trata-se, portanto, de uma técnica de síntese (sobreposição) de imagens, ou sons humanos, baseada na inteligência artificial.
Os vídeos deepfake são criados com o uso de inteligência artificial de aprendizado profundo, que analisa uma infinidade de vídeos e fotos da pessoa a ser falsificada e, em seguida, sobrepõe a face de alguém em um vídeo existente.
Então, para criar um deepfake é necessário alimentar uma rede neural com várias fotos de uma pessoa. É preciso também algumas horas e muito poder de processamento.
Qualquer pessoa com um computador razoavelmente poderoso pode criar um vídeo de aparência autêntica se tiver material suficiente para ser usado.
O primeiro deepfake
Esta tecnologia surgiu pela primeira vez em 2017, quando um usuário do Reddit, chamado “deepfakes”, postou uma série de vídeos com estrelas de cinema e outras celebridades femininas envolvidas em ações pornográficas.
A tecnologia usada para criar os vídeos foi lançada como um aplicativo gratuito, chamado FakeApp, que rapidamente levou à criação de muitos outros vídeos pornográficos falsos que pareciam incrivelmente realistas.
Veja os primeiros experimentos feitos com este tipo de aplicação. Um dos mais famosos é o do ex-presidente Obama.
Exemplos assustadores de vídeos deepfake
Em 2018, uma abordagem bastante precisa de deepfake, o Deep Video Portraits, foi desenvolvida por um professor da Universidade de Stanford em parceria com outras instituições.
Neste sistema é possível ajustar com mais precisão os movimentos faciais, desde a rotação da cabeça em 3D até o piscar dos olhos. Além de dispensar a utilização de muitas imagens e a alteração dos gráficos dos cabelos ou do fundo.
E mais recentemente, pesquisadores do Centro de Inteligência Artificial da Samsung, em Moscou, publicaram um novo estudo: o Few-Shot Adversarial Learning of Realistic Neural Talking Head Models (Aprendizagem Adversarial de Poucas-Imagens de Modelos de Cabeça Neural Falantes Realistas).
Como o próprio título indica, neste novo sistema apenas uma foto já pode ser o suficiente para alimentar a rede neural. E ainda, seu tempo de treinamento é bem menor.
O deepfake já foi utilizado para criar vídeos falsos de Barack Obama, Donald Trump, da chanceler alemã Angela Merkel e do presidente russo Vladimir Putin, entre muitos outros.
Portanto, nesta época em que as fakenews causam confusões políticas sem precedentes, estes vídeos manipulados são de fato assustadores.
Veja no vídeo abaixo alguns exemplos surpreendentes que o deepfake pode criar:
Motivos para se preocupar
Esta nova tecnologia representa soluções práticas e positivas sob o aspecto da criação de imagens para o cinema (dublagem) ou publicidade. No entanto, ela já rende muitos motivos para preocupar a segurança pública.
Apesar da comprovação de que os primeiros vídeos no Reddit foram criados por redes neurais artificiais, e desmascarados rapidamente, estes materiais levantaram o debate acerca de suas possíveis ameaças. E muitos jornais internacionais publicaram artigos sobre o tema, dignos de roteiros para episódios do “Black Mirror”.
Mas essas ameaças não ocorrem apenas no campo da pornografia. Existe também a possibilidade destes vídeos tornarem-se poderosas ferramentas para o cibercrime. Disseminando malware, por exemplo.
Além disso, há um grande risco de criminosos inescrupulosos usarem destes vídeos para chantagear as pessoas. Ou ainda, para todo tipo de corrupção política.
O que podemos fazer?
Mais de um ano depois da aparição destes primeiros vídeos no Reddit suas piores ameaças ainda não se materializam. Além disso, suas aparições em outras redes sociais, como o Twitter e o Facebook, foram rapidamente identificadas.
Isso porque eles são muito fáceis de rastrear. As arquiteturas deepfake existentes deixam algumas pistas no vídeo manipulado. Estes rastros são facilmente detectados por um algoritmo de aprendizado da máquina.
Além disso, alguns algoritmos de detecção estão disponíveis ao público. O Facebook, por exemplo, usa seu próprio sistema para filtrar vídeos manipulados desde setembro de 2018.
Então, a princípio, torna-se cada vez mais importante proteger imagens e vídeos de nós mesmos. Isso porque o deepfake requer um material de origem.
Talvez, uma das melhores estratégias que pode ser empregada no combate às falsificações seja utilizar o próprio aprendizado da máquina. Pois ele é capaz de treiná-la para reconhecer vídeos falsos em nossa defesa.
Ainda assim, a preocupação que fica é a de que a tecnologia deepfake possa se desenvolver mais rapidamente do que a capacidade de detectá-la.
Você já conhecia os vídeos deepfake? Acredita nas previsões ameaçadoras desta ferramenta? Deixe seu comentário!