Ficção camuflada de verdade

Com recursos de inteligência artificial, as informações falsas estão cada vez mais sofisticadas e já são capazes de enganar nossos olhos e ouvidos. Saiba como não cair nas chamadas deepfakes

Imagem de capa - Ficção camuflada de verdade

Você tem certeza de que tudo o que vê e ouve é mesmo verdade? Será que dá para acreditar em todos os vídeos que encontramos nas redes sociais e que chegam ao nosso WhatsApp? Infelizmente, a resposta é não.

Com o avanço das tecnologias da computação, pessoas mal-intencionadas já podem enganar até os nossos olhos e ouvidos. Aqui vai um exemplo: hoje é possível criar um vídeo falso com a imagem e a voz de uma pessoa usando recursos de inteligência artificial.

Com a manipulação de sons e imagens, a tecnologia permite a troca rostos de pessoas e até colocá-las em situações que elas nunca estiveram na realidade. Esse tipo de tecnologia é chamada de deepfake, que remete à ideia de uma falsificação profunda, difícil de ser descoberta.

Aplicativo para celular
Há alguns meses, um morador da Bahia começou a fazer sucesso em uma rede social depois de aparecer com o rosto do ator norte-americano Will Smith em pontos turísticos de Salvador, como o Pelourinho. Ele ainda protagonizou situações engraçadas, em que o Will Smith de mentirinha aparece dançando músicas brasileiras.

O truque foi possível graças a um aplicativo para smartphone que usa uma tecnologia chamada Generative Adversarial Network (GAN), que reconhece e transfere qualquer rosto para outra imagem. Em resumo, as deepfakes já estão disponíveis para pessoas comuns e chamam a atenção para o poder e os perigos desse tipo de recurso.

Fraude com voz
A manipulação de voz já levou a uma fraude financeira. Em agosto do ano passado, o jornal The Wall Street Journal noticiou que criminosos usaram um software baseado em inteligência artificial para imitar a voz do CEO de uma empresa alemã e exigir uma transferência fraudulenta de 220 mil libras.

Segundo a reportagem, o golpe ocorreu quando os fraudadores conseguiram falsificar a voz do CEO e enganar um de seus subordinados, o diretor-executivo de uma subsidiária de energia no Reino Unido, que foi orientado a enviar dinheiro a um suposto fornecedor húngaro. Ao ouvir a voz, o homem acreditou que estava conversando com seu chefe e fez a transferência. O crime foi descoberto, mas o dinheiro não foi recuperado.

Pornografia
Uma pesquisa revelou que conteúdos pornográficos correspondem a 96% de todos os vídeos com deepfake que circulam na internet. A descoberta é do estudo The State of Deepfakes, feito pela Deep Trace, empresa de segurança especializada em rastrear materiais criados com inteligência artificial. Em geral, as mulheres são as principais vítimas, principalmente celebridades do cinema e da música, que têm seus rostos inseridos em vídeos pornográficos.

Pessoas fictícias
Para mostrar o poder da inteligência artificial, o engenheiro de software Philip Wang criou um site que gera automaticamente imagens de pessoas que não existem. Para isso, o site usa bancos de dados de diferentes cores e estilos de traços faciais, como cabelo, formato do rosto e dos olhos, para criar rostos fictícios. O projeto chama-se Esta Pessoa Não Existe e o endereço é https://thispersondoesnotexist.com/.

Para ver novos rostos, basta atualizar a página.

Política
Os vídeos com deepfake também podem ser usados com outras finalidades, como a política. Imagine uma disputa entre candidatos baseada em vídeos falsos? Como os eleitores conseguiriam diferenciar o que é verdade e o que é ficção?

Para se ter ideia de como esse tipo de tecnologia pode ser usada, basta lembrar do vídeo produzido em 2018 pelo site Buzz Feed em que o ex-presidente Barack Obama teve sua voz e sua imagem usadas para criar um conteúdo falso. Neste caso, o site divulgou o trabalho para alertar os leitores sobre como fraudadores agem para modificar vídeos e espalhar mentiras usando certos softwares. Com a chegada das eleições, todo cuidado é pouco. Por isso, confira as dicas acima que reunimos para que você fuja das imagens falsas.

imagem do author
Colaborador

Rê Campbell / Foto: Getty Images