Home Geral Vídeos de Inteligência Artificial fazem sucesso, mas golpes digitais crescem entre usuários

Vídeos de Inteligência Artificial fazem sucesso, mas golpes digitais crescem entre usuários

Criações ultrarrealistas feitas com inteligência artificial viralizam nas redes; especialista mostra como diferenciar o real do falso

Foto: Freepik

Nas últimas semanas, vídeos extremamente realistas gerados por inteligência artificial (IA) têm ganhado grande repercussão nas redes sociais. O fenômeno soma milhões de visualizações, e também levanta dúvidas. Muitos usuários ainda possuem dificuldade em diferenciar o que é real ou não, o que aumenta a desconfiança em relação à autenticidade das informações. Além disso, cresce o número de criminosos que utilizam a tecnologia para adulterar áudios, imagens e vídeos.

Esse boom se deve ao avanço de diversas tecnologias e plataformas de IA generativa. Algumas dessas ferramentas custam a partir de R$ 97 por mês, embora ofereçam versões de teste gratuitas. Segundo a Conversion, mais de 90% dos brasileiros digitalizados já utilizam IA generativa com frequência. Com comandos simples, essas plataformas permitem criar vídeos ultrarrealistas sem exigir conhecimento técnico em edição.

O lado sombrio da IA

Um levantamento da Sumsub mostra que as fraudes com deepfakes cresceram 700% em todo o mundo entre o primeiro trimestre de 2024 e o mesmo período de 2025. O Brasil está entre os países mais afetados: os incidentes aqui são cinco vezes mais comuns que nos Estados Unidos e dez vezes mais do que na Alemanha.

Para Wanderson Castilho, perito em crimes digitais e CEO da Enetsec, “o uso de deepfakes hoje está cada vez mais fácil. Basta pagar um valor determinado e inserir a imagem de quem você quiser, seja uma atriz, uma celebridade ou até a sua própria. A plataforma então gera a figura automaticamente. Tecnicamente, é muito simples e não apresenta grandes dificuldades.”, disse.

Casos recentes

A Polícia prendeu quatro suspeitos que usavam deepfakes para aplicar golpes que movimentaram cerca de R$ 20 milhões. O esquema funcionava com anúncios falsos de celebridades, como Gisele Bündchen, oferecendo supostos “kits antirrugas grátis” ou malas de viagem. Para receber o brinde, as vítimas precisavam pagar apenas o frete e eram direcionadas a sites fraudulentos que imitavam lojas conhecidas. “Quando a oferta envolve uma celebridade, é importante verificar os canais oficiais, seja o site, redes verificadas ou marcas que ela representa. Confirmando diretamente na fonte, a pessoa se protege e evita cair em golpes”, alerta o perito.

Outro caso que chamou atenção ocorreu em Campinas (SP), quando um vídeo mostrando uma onça rondando os prédios de um conjunto habitacional viralizou nas redes sociais. Moradores afirmaram ter visto o animal, e os bombeiros chegaram a ser acionados. No entanto, a Prefeitura de Campinas e os especialistas confirmaram que o vídeo era falso, criado por inteligência artificial. A cena parecia realista, mas apresentava inconsistências visuais típicas de deepfakes, como movimentos artificiais e sombras imprecisas.

Saiba como identificar um vídeo fake:

Identificar vídeos de deepfake pode ser um desafio, mas, segundo o especialista, algumas dicas podem ajudar a reconhecer quando o vídeo é falso. “Primeiro, observe o movimento dos olhos e piscadas, já que esse tipo de vídeo falso muitas vezes falha em replicar movimentos naturais”, diz Wanderson.

“As expressões faciais podem parecer rígidas ou não naturais, e a sincronização labial pode não corresponder perfeitamente ao áudio. É importante também verificar a iluminação, que pode parecer irrealista e a textura da pele, que pode parecer excessivamente lisa ou brilhante”, completa.

O especialista também indica que o áudio pode parecer fora de sincronia, formal demais ou num tom acima do que a persona do vídeo costuma se comunicar e, além disso, Wanderson pede para se atentar ao movimento do corpo que pode ter inconsistências sutis. “Verificando estas informações, o usuário consegue tornar a sua vida nas redes ainda mais segura”, finaliza.

Deixe seu comentário:

Please enter your comment!
Please enter your name here