Quais as implicações da ferramenta que permite trocar rostos em vídeos

Proliferação de ‘deepfakes’, vídeos falsos gerados por algoritmo, traz à tona questões de consentimento e autenticidade da imagem digital

Quando o termo “pós-verdade” foi eleito a palavra do ano pelo dicionário Oxford em 2016, o principal foco da discussão era proliferação de notícias falsas e a desvalorização dos fatos no debate político, que estariam perdendo espaço para boatos.
O universo das fakes news vem ganhando uma nova dimensão em 2018: vídeos falsos tem atingido, recentemente, enorme popularidade em tópicos da rede social Reddit. Dados do Google Trends mostram picos em busca por esse conteúdo em meados de dezembro de 2017 e no fim de janeiro e início de fevereiro em 2018.
Chamados de “deepfakes“, os vídeos em questão são gerados pela aplicação de uma tecnologia semelhante ao “face swap” (troca de rostos, em tradução livre) utilizado no Instagram e em outras redes.
O algoritmo tem sido usado para sobrepor rostos de personalidades femininas, como os da atrizes Emma Watson, Gal Gadot e Natalie Portman, ao de pessoas em vídeos pornográficos.  O resultado, como define uma transmissão da rádio pública americana NPR, podem ser vídeos falsos altamente realistas.
“O que acontece com questão de consentimento quando vídeos como esses proliferam na internet? E quais as implicações para a integridade de qualquer vídeo na era digital?”, questiona uma reportagem publicada em 31 de janeiro pelo site Vox.

Como começou
A “mania” dos deepfakes foi reportada pelo primeiro portal de tecnologia da Vice, o Motherboard, em uma reportagem publicada em dezembro de 2017.
“Pornô falso com celebridades, em que imagens são ‘photoshopadas‘ para parecer que pessoas famosas estão posando nuas, é uma categoria de pornografia que já tem anos de idade e uma base de fãs fervorosa”, escreveu a editora Samantha Gole em um primeiro texto sobre o assunto, que se desdobraria em vários outros. “Este [os deepfakes] são o mais novo avanço desse gênero”.
De fato, segundo a reportagem da Vox, o tópico CelebFakes, dedicado ao compartilhamento desse tipo de imagem, existe desde 2011 no Reddit, onde conta com mais de 50 mil seguidores.
A “evolução” teria vindo de um dos usuários dessa comunidade. No fim de setembro de 2017, um usuário chamado “deepfakes” postou uma série de vídeos em um tópico que pedia imagens alteradas da atriz de “Game of Thrones” Maisie Williams. A ferramenta nova surpreendeu outros usuários e acabou gerando um tópico especializado nesse tipo de material, batizado de deepfakes.
A pedidos, ele compartilhou a programação de scripts usada para a sobreposição de rostos no vídeo. Com o tempo, outros programadores do tópico foram aprimorando o algoritmo para criar trocas cada vez mais convincentes.

Como funciona
Baseado em aprendizado de máquina, o algoritmo é “treinado” pelo processamento de centenas de fotos do rosto de uma pessoa.
É por isso que atores e atrizes conhecidos são alvos fáceis: qualquer pesquisa online fornece um banco de imagens volumoso o suficiente para abastecer o algoritmo.
Conforme essa tecnologia se torna mais avançada e acessível, no entanto, rostos menos conhecidos podem se tornar vítimas dos vídeos falsos, segundo a NPR.
Desde que se tenha uma quantidade suficiente de fotos, os deepfakes podem facilmente ser feitos a partir do perfil de qualquer pessoa no Facebook ou Instagram, disse a editora do Motherboard, Samantha Cole, à emissora.
Não é mais preciso te conhecimento de programação para gerar deepfakes. Aplicativos já estão “democratizando” essa tecnologia.

Consequências
O título da reportagem da Vox se refere aos deepfakes como um “prenúncio de distopia”.
“Esse novo tipo de pornô falso mostra que estamos prestes a viver em um mundo no qual é trivialmente fácil fabricar vídeos críveis de pessoas fazendo e dizendo coisas que elas nunca fizeram ou disseram, escreveu Cole no Motherboard.
Em entrevista à NPR, Cole diz que celebridades atingidas por esse tipo de prática podem processar por apropriação indevida de sua imagem. Pessoas comuns, porém, teriam menos recursos para lidar com isso, uma vez que, segundo ela, a tecnologia tem andado mais rápido que a lei.
Para além do enquadramento legal da criação desse tipo de vídeo, expurgá-lo da rede depois de compartilhado é extremamente difícil. É possível solicitar que as imagens sejam retiradas de plataformas mainstream, como Giphy e mesmo o Pornhub, e consegui-lo com certa rapidez.
Mas sites mais obscuros não têm nenhum tipo de regulação para combater a prática de regulação para combater a prática de revenge porn (pornografia de vingança, em português), a divulgação sem consentimento de imagens íntimas.
“Embora a gente não tenha uma lei específica sobre revenge porn, [no Brasil] esses casos poderiam ser enquadrados no código penal como injúria ou difamação”, disse Natália Neris, coordenadora da área Desigualdades e Identidades do InternetLab, em entrevista ao Nexo. “Também se poderia mobilizar o código civil, entrando com algum pedido de indenização por danos morais.”
A preocupação maior de especialistas e outros, porém, é que os vídeos com face swap se disseminem como uma nova forma de violência sexual virtual contra mulheres.
Com selfies armazenadas voluntariamente em nuvens como o Google Photos, bases de dados dos rostos de muita gente estão sendo criadas e expandidas cotidianamente. Entre 2015 e 2016, 24 bilhões de selfies foram salvas na plataforma, segundo o Google.
“Não é difícil de imaginar um programador amador usando seu próprio logaritmo para criar uma ‘sex tape’ de alguém que ele queira assediar”, projetava Samantha Cole em dezembro.
Em uma nova reportagem publicada no fim de janeiro, Cole já tratava dessa forma de assédio como realidade. Ela monitorou tópicos com vídeos pornográficos falsos envolvendo conhecidas, amigas, ex-namoradas e colegas de classe.
Em entrevista a Cole em dezembro, a atriz pornográfica Grace Evangeline levantou que a questão ética principal em torno dos deepfakes está no consentimento. “Criar cenas de sexo falsas de celebridades tira o consentimento dessas pessoas. É errado.”

Fonte: Nexo.

Compartilhe

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *