Nas últimas semanas, vídeos extremamente realistas gerados por inteligência artificial (IA) têm ganhado grande repercussão nas redes sociais. O fenômeno soma milhões de visualizações, e também levanta dúvidas. Muitos usuários ainda possuem dificuldade em diferenciar o que é real ou não, o que aumenta a desconfiança em relação à autenticidade das informações. Além disso, cresce o número de criminosos que utilizam a tecnologia para adulterar áudios, imagens e vídeos.
Esse boom se deve ao avanço de diversas tecnologias e plataformas de IA generativa. Algumas dessas ferramentas custam a partir de R$ 97 por mês, embora ofereçam versões de teste gratuitas. Segundo a Conversion, mais de 90% dos brasileiros digitalizados já utilizam IA generativa com frequência. Com comandos simples, essas plataformas permitem criar vídeos ultrarrealistas sem exigir conhecimento técnico em edição.
O lado sombrio da IA
Um levantamento da Sumsub mostra que as fraudes com deepfakes cresceram 700% em todo o mundo entre o primeiro trimestre de 2024 e o mesmo período de 2025. O Brasil está entre os países mais afetados: os incidentes aqui são cinco vezes mais comuns que nos Estados Unidos e dez vezes mais do que na Alemanha.
Para Wanderson Castilho, perito em crimes digitais e CEO da Enetsec, “o uso de deepfakes hoje está cada vez mais fácil. Basta pagar um valor determinado e inserir a imagem de quem você quiser, seja uma atriz, uma celebridade ou até a sua própria. A plataforma então gera a figura automaticamente. Tecnicamente, é muito simples e não apresenta grandes dificuldades.”, disse.
Casos recentes
A Polícia prendeu quatro suspeitos que usavam deepfakes para aplicar golpes que movimentaram cerca de R$ 20 milhões. O esquema funcionava com anúncios falsos de celebridades, como Gisele Bündchen, oferecendo supostos “kits antirrugas grátis” ou malas de viagem. Para receber o brinde, as vítimas precisavam pagar apenas o frete e eram direcionadas a sites fraudulentos que imitavam lojas conhecidas. “Quando a oferta envolve uma celebridade, é importante verificar os canais oficiais, seja o site, redes verificadas ou marcas que ela representa. Confirmando diretamente na fonte, a pessoa se protege e evita cair em golpes”, alerta o perito.
Outro caso que chamou atenção ocorreu em Campinas (SP), quando um vídeo mostrando uma onça rondando os prédios de um conjunto habitacional viralizou nas redes sociais. Moradores afirmaram ter visto o animal, e os bombeiros chegaram a ser acionados. No entanto, a Prefeitura de Campinas e os especialistas confirmaram que o vídeo era falso, criado por inteligência artificial. A cena parecia realista, mas apresentava inconsistências visuais típicas de deepfakes, como movimentos artificiais e sombras imprecisas.
Saiba como identificar um vídeo fake:
Identificar vídeos de deepfake pode ser um desafio, mas, segundo o especialista, algumas dicas podem ajudar a reconhecer quando o vídeo é falso. “Primeiro, observe o movimento dos olhos e piscadas, já que esse tipo de vídeo falso muitas vezes falha em replicar movimentos naturais”, diz Wanderson.
“As expressões faciais podem parecer rígidas ou não naturais, e a sincronização labial pode não corresponder perfeitamente ao áudio. É importante também verificar a iluminação, que pode parecer irrealista e a textura da pele, que pode parecer excessivamente lisa ou brilhante”, completa.
O especialista também indica que o áudio pode parecer fora de sincronia, formal demais ou num tom acima do que a persona do vídeo costuma se comunicar e, além disso, Wanderson pede para se atentar ao movimento do corpo que pode ter inconsistências sutis. “Verificando estas informações, o usuário consegue tornar a sua vida nas redes ainda mais segura”, finaliza.




