Este conteúdo faz parte da newsletter IAí?, que existe para te guiar no universo da inteligência artificial. Assine aqui para receber toda terça-feira no seu e-mail.
Nas últimas semanas, é possível que você tenha visto nas redes sociais o vídeo de um canguru de apoio emocional barrado em um voo comercial. A cena viralizou ao mostrar o bicho amuado ao lado da tutora. Quem não foi cativado pelo canguru, talvez tenha se encantado com Marisa, a apresentadora que veste apenas um maiô preto e levanta uma plateia ensandecida com quadros nonsense (e divertidíssimos) de um programa de auditório.
Os vídeos têm em comum o fato de terem sido completamente gerados por inteligência artificial a partir de comandos de texto. São hiper-realistas (chamados de “deepfake”) e, apesar de absurdos, confundiram muita gente. As criações são parte de uma nova safra de vídeos gerados por IA que inundou as redes sociais nas últimas semanas, impulsionada pelo Veo3, novo modelo do Google capaz de criar cenas em altíssima resolução, com estilo cinematográfico e áudio sincronizado.
- Veja como funciona e o que muda: ChatGPT ativa ferramenta de compras no Brasil
Mas nem tudo que a IA transforma em vídeo é lúdico e inofensivo. Em três anos, enquanto esses sistemas que criam vídeos, imagens e sons ficaram mais acessíveis, rápidos e convincentes, também escalaram criações sintéticas (geradas por máquinas) usadas para manipular, enganar e espalhar desinformação em todo o mundo.
Se vídeos falsos sempre existiram, o salto recente da IA os tornou mais convincentes do que nunca. No Brasil, o tema levanta precupação especialmente para 2026, ano de eleições presidenciais.
Mas dá para reconhecer um vídeo criado por IA? Conversamos com especialistas, incluindo um perito forense, que nos ajudaram a responder a essa pergunta. Por enquanto, não há bala de prata. Mas, com exemplos reais, mostramos como é possível identificar pistas.
Hoje, não existe um detector de deepfakes que esteja disponível para o público geral e seja completamente assertivo. Em universidades brasileiras e internacionais, pesquisadores têm trabalhado para criar um sistema desse tipo.
Alguns sites, como o Deepware Scanner, ajudam a levantar suspeitas, mas podem errar. E frequentemente erram, segundo Tiago Samir Freire, perito especialista em audiovisual forense que há anos trabalha na identificação de vídeos e imagens manipuladas.
Já as big techs, como a Meta, o Google e a OpenAI, estão desenvolvendo ferramentas para identificar conteúdos sintéticos gerados por suas próprias plataformas, com marcas d’água digitais invisíveis ou técnicas de rastreamento, lembra Arlindo Galvão, diretor do Centro de Excelência em IA da Universidade Federal de Goiás (UFG). Mas essas soluções estão em fase inicial ou são restritas.
Funciona mesmo? Testamos a IA do Google que traduz reuniões no Meet em tempo real
A verdade é que a indústria de tecnologia, por ora, nos deixou em uma encruzilhada: criou modelos cada vez potentes para gerar vídeos e imagens realistas, mas não teve a mesma pressa em desenvolver ferramentas que ajudassem a identificá-los.
1. Os defeitos moram nos detalhes
A maior pista de um vídeo falso muitas vezes está longe do que a IA quer te mostrar. Mãos, olhos, dentes e sombras são detalhes onde esses sistemas, por mais avançados que estejam, costumam tropeçar. Freire diz que é preciso “estarmos com foco e atenção na riqueza de detalhes da cena como um todo, não somente naquilo que está em primeiro plano”.
Sempre é válido, em vídeos sintéticos, observar falhas no movimento das pessoas, as pernas, braços, afirma o especialista. Ele dá exemplos reais.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/F/3/ZBujMyQAuepVNKDMBkeg/whatsapp-image-2025-06-23-at-17.31.25.jpeg)
Em vídeos da apresentadora Marisa Maiô, por exemplo, apesar do realismo, um olhar mais atento identifica dedos faltando, mãos que se fundem com o tórax e um público com braços ou pernas que encolhem ou somem. As falhas ficam mais evidentes nas informações visuais em segundo plano.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/I/b/9xmGxaQkqKDMOy7YhZSw/whatsapp-image-2025-06-23-at-17.26.12.jpeg)
No caso do canguru barrado no aeroporto, há indícios parecidos: a aliança da tutora desaparece entre quadros e o polegar dela chega a desaparecer completamente. Para perceber as falhas, no entanto, é preciso desviar o olhar daquilo que o vídeo quer que o usuário mais foque, que é o canguru obediente com uma passagem aérea “em mãos”.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/A/K/5HK1DRTyO9DTM8ieFkMA/whatsapp-image-2025-06-23-at-17.26.21.jpeg)
Arlindo Galvão, da UFG, reforça a lista de pistas. Uma delas é os olhares vidrados, com pouca variação no foco ou movimentos que não acompanham a cabeça ou o ambiente. Rostos sintéticos também costumam ter a pele mais lisa, sem poros, marcas ou imperfeições.
2. Pistas: cenas curtas e erros gráficos
Outro sinal comum está no ritmo e na estrutura dos vídeos. Muitos modelos atuais — como o Veo 3, do Google — só geram vídeos curtos, de até oito segundos. Por isso, deepfakes costumam ser muito breves ou apresentar cortes frequentes, juntando vários trechos curtos, ressalta .
Além disso, o plano costuma ser fixo: sem câmera em movimento, sem interação com objetos ou pessoas ao redor. Entrevistas em plano fechado, por exemplo, são ideais para esse tipo de conteúdo, afirma Galvão.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/z/E/Qqgs5wQnGHZGXE52kXEA/whatsapp-image-2025-06-24-at-08.39.29.jpeg)
O áudio também entrega o jogo. O professor da UFG ressalta que deepfakes geralmente têm som limpo demais, sem ruído ambiente, sem eco, sem variação de acústica. Parece áudio gravado em estúdio de dublagem. Quando a IA clona vozes humanas, ela costuma acertar entonação e sotaque, mas ainda falha em reproduzir o som ambiente real.
- Fim do Ctrl+F? Como usar a IA para analisar documentos e ‘conversar’ com PDFs
Por fim, é bom sempre prestar atenção em pequenos erros gráficos. Textos ao fundo, como placas, faixas ou legendas, podem sair borrados, com fontes desconexas ou palavras que não existem —a IA ainda tem dificuldade com escrita e símbolos gráficos.
3. Quando a vítima é uma pessoa real
No caso de deepfakes que alteram a fala de uma pessoa real, um dos principais elementos a observar é a sincronia entre som e boca. A pedido do GLOBO, Tiago Samir Freire analisou um vídeo manipulado com o ministro Fernando Haddad, que viralizou no início do ano. Nele, o titular da Fazenda fala que “brasileiro gosta de um imposto novo” e anuncia a taxação de pets (o que nunca aconteceu).
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/p/G/7oxUOgQnqWljRMAIL8Eg/imagem5-dente.png)
No vídeo falso, a fala do ministro segue normalmente enquanto a boca está parada ou se mexe em ritmos incompatíveis com a frase. Em um frame, os dentes chegam a desaparecer. Em outros, uma porção do lábio inferior surge e depois desaparece.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/8/g/vc7Dr5RFWaKZYaaDFSPg/whatsapp-image-2025-06-24-at-08.43.53.jpeg)
Mais uma vez, as “falhas” também moram nos detalhes. O especialista chama a atenção que as rugas na região da testa permanecem na mesma posição mesmo após o deslocamento da face. Atrás do ministro, uma pessoa que passa caminhando desaparece da imagem.
4. Busca reversa (e senso crítico)
Para o professor da UFG, a tendência é de que os conteúdos sintéticos se tornem mais próximos do real, o que vai tornar a identificação por olho nu cada vez mais difícil.
Isso reforça a importância do uso de ferramentas específicas para análise e verificação da autenticidade desses conteúdos, mas principalmente do questionamento e senso crítico dos usuários, afirma.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/0/B/9ylmlDTluTVDbJQInW1Q/whatsapp-image-2025-06-24-at-08.42.23.jpeg)
Os especialistas sugerem sempre buscar em fontes confiáveis informações sobre o conteúdo. Tiago indica, por exemplo, o uso do Google Lens para ajudar na pesquisa. A ferramenta permite fazer busca reversa por imagem: você envia uma foto ou print, e ela traz as outras versões daquele conteúdo, o que ajuda a saber se já foi publicado antes, em outro contexto ou com outro áudio.