Ver para crer deixou de ser suficiente para atestar que uma coisa seja verdadeira. Foi mais uma das mudanças provocadas pelas ferramentas de inteligência artificial, que hoje permitem criar fotos e vídeos falsos capazes de enganar mesmo os mais atentos.
No começo deste mês, rolou até operação da Polícia Civil do Rio Grande do Sul por causa disso. Uma organização criminosa, acusada de movimentar mais de R$ 20 milhões em fraudes, criava vídeos de IA para vender produtos que nem sequer existem. Eram imagens estreladas por Gisele Bündchen, Angélica, Sabrina Sato e outras celebridades que, claro, não têm nada a ver com a história.
Golpes assim são possíveis graças aos deepfakes, que são vídeos hiper-realistas gerados por inteligência artificial. Os mais convincentes usam imagens reais de gente idem como base, e conseguem simular diálogos, ações… Você assiste e se convence de que aquela figura pública gravou as cenas, que são 100% mentirosas. “Um deepfake bem produzido é capaz de enganar até olhos treinados”, diz Douglas Torres, CEO da Yup AI.
Torres, expert que trabalha com tecnologia e inteligência artificial há quinze anos, montou a lista de dicas abaixo, que pode ajudar você a desmascarar tentativas de fraude.
1. Comece pelos olhos
Mesmo os algoritmos mais avançados ainda tropeçam nos detalhes do olhar. Preste atenção em piscadas fora do ritmo, reflexos artificiais na íris e olhares sem “vida”. O brilho humano é difícil de replicar. Em vídeos, note se o olhar acompanha o movimento natural do rosto ou parece fixo, como o de uma boneca.
2. Verifique se a boca fala demais (ou de menos)
A sincronia labial ainda é um ponto fraco dos deepfakes. Pode haver pequenos descompassos entre o som e o movimento dos lábios, o que ajuda a detectar manipulações.

3. Voz metálica, emoção sintética
Embora a clonagem de voz evolua a largos passos, ainda surgem algumas falas um pouco robóticas. Preste atenção em pausas muito parecidas, compassadas e em entonações sem emoção. Se fizer isso com fones de ouvido, fica mais fácil perceber falhas.
4. Pele de porcelana exagerada
Assim como em imagens estáticas falsas, textura de pele muito uniformes podem indicar ação de IA. Ausência de poros, brilho excessivo… Tudo isso pode ser sinal. Verifique ainda se a iluminação do rosto muda conforme a pessoa se mexe. Em gravações reais, sombras e brilhos acompanham o movimento.
5. Mãos e movimentos que desafiam a anatomia
A IA ainda se perde em formas complexas. Dedos tortos, mãos em posições impossíveis ou gestos truncados são alertas. Movimentos corporais muito rígidos ou descompassados também entregam quando o rosto foi sobreposto digitalmente.
6. Iluminação incoerente e sombras suspeitas
O olho humano percebe inconsistências que a IA ignora. Sombra projetada em direção errada, reflexos diferentes no mesmo ambiente ou luz uniforme demais denunciam imagens sintéticas.
7. Texto e logotipos bagunçados
Nas imagens, letras deformadas, logotipos com grafia errada ou placas ilegíveis são evidências de geração artificial. A IA ainda não domina a escrita em contextos visuais. É o tipo de detalhe que o olho humano pode não notar de primeira, mas sempre vale um zoom.
8. Atenção para o contexto
Um deepfake bem feito pode enganar visualmente, mas dificilmente sustenta o contexto. Pergunte-se: faz sentido essa pessoa estar nesse lugar, com essas roupas, dizendo isso? Especialmente se aparece vendendo produtos com ofertas vantajosas demais. Verifique datas, locais e notícias. Muitas vezes, o erro está na história, não na imagem.
9. Use tecnologia a seu favor
Há ferramentas que ajudam a identificar conteúdos manipulados — de sites de checagem de fatos a detectores de IA, como o AI or Not e o Winston Detector. Eles analisam padrões invisíveis ao olho humano e atribuem níveis de confiabilidade. Mesmo nesses casos, é importante que sejam usadas como apoio em vez de como veredito.
10. Confie nele: o bom e velho bom senso
Por mais sofisticada que seja a falsificação, a dica mais poderosa continua sendo: desconfie. Se algo parece bom (ou chocante) demais para ser verdade e só circula em redes sociais, sem confirmação de fontes confiáveis, provavelmente é falso. Mesmo que pareça confirmar opiniões que você tenha. Em tempos de inteligência artificial, o ceticismo é o novo antivírus.