Deepfakes, uma nova forma de manipulação digital

É mais fácil acreditar no que vemos do que no que os outros nos dizem. Os "deepfakes" exploram exatamente a nossa credulidade/inocência.
Deepfakes, uma nova forma de manipulação digital
Valeria Sabater

Escrito e verificado por a psicóloga Valeria Sabater.

Última atualização: 29 julho, 2022

Parece feitiçaria, mas não é. Na verdade, é pura engenharia do futuro, um dispositivo de inteligência artificial digno dos livros de Arthur C. Clarke. Deepfakes são aqueles vídeos que são alterados digitalmente e que permitem que você troque o rosto de uma pessoa por outra. O resultado é tão perfeito que podemos mostrar qualquer pessoa dizendo ou fazendo algo que nunca disse ou fez.

A maioria usa esse recurso para fazer piadas com amigos e familiares, colocando seus rostos no de cantores e atores conhecidos: Lady Gaga, Leonardo DiCaprio, Capitão América, Scarlett Johansson, etc. Desse modo, repentinamente estamos dançando em um videoclipe ou estrelando um filme famoso.

No entanto, a tecnologia pode ser usada para fins inócuos ou criminosos. Um exemplo disso é o de Raffaela Spone, uma mulher de 50 anos que mora em uma cidade da Pensilvânia. Essa dona de casa manipulou as fotos das animadoras de torcida da escola da filha com a ideia de que as meninas parassem com essa atividade. Para isso, criou imagens pornográficas e as distribuiu.

A Sra. Spone foi presa e acusada de cyberbullying direcionado a menores. Seu objetivo era tirar as potenciais “rivais” da sua filha da equipe. Suas fotos manipuladas foram distribuídas pela escola e redes sociais. Felizmente, a polícia avisou que elas haviam sido criadas com tecnologia de inteligência artificial.

Outro exemplo é um vídeo de Obama que circulou no YouTube, no qual ele dizia que Donald Trump era um idiota. O clipe gerou uma grande polêmica na mídia. A verdade é que aquilo não era real, e sim um experimento da Universidade de Washington que demonstrou o efeito que a capacidade de manipular vídeos por meio de um algoritmo de inteligência artificial era capaz de produzir.

Inteligência artificial

Deepfakes e a importância do pensamento crítico

Os deepfakes estão na moda. Colocar o rosto de uma pessoa no corpo de outra para dizer ou fazer algo específico pode ser uma ótima ferramenta para se divertir. Na verdade, uma lenda urbana diz que se você disser a palavra deepfake três vezes, Tom Cruise aparecerá.

Há algo evidente explicado em um artigo de pesquisa realizado pela University of Victoria (Canadá), pela Nottingham Trent University (Reino Unido) e pela LUISS Guido Carli University (Itália): a manipulação fotográfica é algo que vem sendo feito desde o século XIX.

No entanto, a chegada dos deepfakes marcou um ponto de inflexão. Em muitos casos, eles são usados para fins criminosos, como pornografia, fake news e fraude financeira. O problema é tão sério que essa situação provavelmente será regulamentada em breve.

Nesta era digital, a mentira, seja por meio de notícias falsas ou imagens, está na ordem do dia. E o impacto social é enorme. Devemos estar preparados para detectar esses dispositivos manipuladores.

Quando a imagem tem mais poder do que as palavras (e a verdade)

É mais fácil acreditar no que vemos do que no que os outros nos dizem. No entanto, os deepfakes alteram a verdade ao manipular documentos visuais. Um exemplo disso é o que aconteceu em Veneza durante a pandemia. Como resultado do confinamento, imagens de cisnes negros movendo-se calmamente nas águas dos canais começaram a ser publicadas.

Também vimos peixes de formas estranhas enchendo aquelas ruas inundadas durante aqueles dias. No entanto, nada daquilo era verdade. Os cisnes foram produto da inteligência artificial. No mundo da desinformação, os deepfakes são grandes aliados.

Conteúdo pornográfico e deepfakes

Vamos lembrar o caso da Sra. Raffaela Spones querendo se livrar das colegas de escola de sua filha. Em muitos casos, a tecnologia deepfake é usada como meio de assédio e vingança. Para isso, nada melhor do que criar vídeos pornográficos. Basta escolher um clipe desse conteúdo e colocar o rosto de quem você quiser.

Em seguida, vem a próxima etapa: distribuí-lo. Os vídeos pornográficos criados com a tecnologia deepfake costumam ser compartilhados na escola e no trabalho. É uma forma altamente eficaz de assédio.

A realidade está sendo hackeada

Os deepfakes surgiram em 2007, um pouco antes das fake news se tornarem a ordem do dia. No momento, todas essas tendências estão hackeando e alterando completamente a nossa realidade. Eles são usados em campanhas de difamação para atacar figuras públicas. Além disso, de acordo com uma publicação no Crime Science Journal, os deepfakes para fins criminosos movimentam uma grande quantidade de dinheiro a cada ano.

Estima-se que haja mais de 50.000 deepfakes circulando na internet, e estamos atribuindo veracidade total a muitos desses conteúdos.

Mulher assistindo deepfakes

O que podemos fazer com esse tipo de tecnologia?

Países como a China proibiram o uso desse tipo de inteligência artificial. O Facebook criou um fundo de mais de 10 milhões de dólares com a intenção de gerar ferramentas que protejam a população contra o seu uso indevido. A Microsoft, por exemplo, propõe que usemos seu Autenticador de Vídeo para descobrir se aquele vídeo ou aquela imagem que chegou até nós foi manipulada.

Desta forma, além dos recursos de que dispomos para identificar deepfakes, existe algo essencial. A primeira coisa é não recorrer a esse tipo de tecnologia para fins de assédio ou vingança. A segunda coisa é desenvolver um senso crítico das mensagens que chegam até nós. Em um mundo em que a realidade é cada vez mais manipulada, só o filtro do cuidado pode nos proteger…


Todas as fontes citadas foram minuciosamente revisadas por nossa equipe para garantir sua qualidade, confiabilidade, atualidade e validade. A bibliografia deste artigo foi considerada confiável e precisa academicamente ou cientificamente.


  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331

Este texto é fornecido apenas para fins informativos e não substitui a consulta com um profissional. Em caso de dúvida, consulte o seu especialista.