BRcom - Agregador de Notícias
No Result
View All Result
No Result
View All Result
BRcom - Agregador de Notícias
No Result
View All Result

como identificar um vídeo gerado por IA

BRCOM by BRCOM
junho 24, 2025
in News
0
Programa de auditório 'Marisa Maiô' viralizou nas redes sociais, mas ainda deixa 'pistas' de que foi gerado por IA — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

Este conteúdo faz parte da newsletter IAí?, que existe para te guiar no universo da inteligência artificial. Assine aqui para receber toda terça-feira no seu e-mail.

Nas últimas semanas, é possível que você tenha visto nas redes sociais o vídeo de um canguru de apoio emocional barrado em um voo comercial. A cena viralizou ao mostrar o bicho amuado ao lado da tutora. Quem não foi cativado pelo canguru, talvez tenha se encantado com Marisa, a apresentadora que veste apenas um maiô preto e levanta uma plateia ensandecida com quadros nonsense (e divertidíssimos) de um programa de auditório.

Os vídeos têm em comum o fato de terem sido completamente gerados por inteligência artificial a partir de comandos de texto. São hiper-realistas (chamados de “deepfake”) e, apesar de absurdos, confundiram muita gente. As criações são parte de uma nova safra de vídeos gerados por IA que inundou as redes sociais nas últimas semanas, impulsionada pelo Veo3, novo modelo do Google capaz de criar cenas em altíssima resolução, com estilo cinematográfico e áudio sincronizado.

  • Veja como funciona e o que muda: ChatGPT ativa ferramenta de compras no Brasil

Mas nem tudo que a IA transforma em vídeo é lúdico e inofensivo. Em três anos, enquanto esses sistemas que criam vídeos, imagens e sons ficaram mais acessíveis, rápidos e convincentes, também escalaram criações sintéticas (geradas por máquinas) usadas para manipular, enganar e espalhar desinformação em todo o mundo.

Se vídeos falsos sempre existiram, o salto recente da IA os tornou mais convincentes do que nunca. No Brasil, o tema levanta precupação especialmente para 2026, ano de eleições presidenciais. 

Mas dá para reconhecer um vídeo criado por IA? Conversamos com especialistas, incluindo um perito forense, que nos ajudaram a responder a essa pergunta. Por enquanto, não há bala de prata. Mas, com exemplos reais, mostramos como é possível identificar pistas.

Conteúdo:

Toggle
  • Uma ferramenta mágica contra deepfakes?
  • 1. Os defeitos moram nos detalhes
  • 2. Pistas: cenas curtas e erros gráficos
  • 3. Quando a vítima é uma pessoa real
  • 4. Busca reversa (e senso crítico)
      • como identificar um vídeo gerado por IA

Uma ferramenta mágica contra deepfakes?

Hoje, não existe um detector de deepfakes que esteja disponível para o público geral e seja completamente assertivo. Em universidades brasileiras e internacionais, pesquisadores têm trabalhado para criar um sistema desse tipo.

Alguns sites, como o Deepware Scanner, ajudam a levantar suspeitas, mas podem errar. E frequentemente erram, segundo Tiago Samir Freire, perito especialista em audiovisual forense que há anos trabalha na identificação de vídeos e imagens manipuladas.

Programa de auditório ‘Marisa Maiô’ viralizou nas redes sociais, mas ainda deixa ‘pistas’ de que foi gerado por IA — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

Já as big techs, como a Meta, o Google e a OpenAI, estão desenvolvendo ferramentas para identificar conteúdos sintéticos gerados por suas próprias plataformas, com marcas d’água digitais invisíveis ou técnicas de rastreamento, lembra Arlindo Galvão, diretor do Centro de Excelência em IA da Universidade Federal de Goiás (UFG). Mas essas soluções estão em fase inicial ou são restritas. 

Funciona mesmo? Testamos a IA do Google que traduz reuniões no Meet em tempo real

A verdade é que a indústria de tecnologia, por ora, nos deixou em uma encruzilhada: criou modelos cada vez potentes para gerar vídeos e imagens realistas, mas não teve a mesma pressa em desenvolver ferramentas que ajudassem a identificá-los.

1. Os defeitos moram nos detalhes

A maior pista de um vídeo falso muitas vezes está longe do que a IA quer te mostrar. Mãos, olhos, dentes e sombras são detalhes onde esses sistemas, por mais avançados que estejam, costumam tropeçar. Freire diz que é preciso “estarmos com foco e atenção na riqueza de detalhes da cena como um todo, não somente naquilo que está em primeiro plano”. 

Sempre é válido, em vídeos sintéticos, observar falhas no movimento das pessoas, as pernas, braços, afirma o especialista. Ele dá exemplos reais. 

Na plateia, é possível reconhecer falhas, como pessoas sem braço ou com uma perna — Foto: Reprodução/Redes sociais/Edição de Tiago Freire
Na plateia, é possível reconhecer falhas, como pessoas sem braço ou com uma perna — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

Em vídeos da apresentadora Marisa Maiô, por exemplo, apesar do realismo, um olhar mais atento identifica dedos faltando, mãos que se fundem com o tórax e um público com braços ou pernas que encolhem ou somem. As falhas ficam mais evidentes nas informações visuais em segundo plano. 

Em vídeo de canguru, anel some e depois reaparece em mão; falhas costumam estar em detalhes — Foto: Reprodução/Redes sociais/Edição de Tiago Freire
Em vídeo de canguru, anel some e depois reaparece em mão; falhas costumam estar em detalhes — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

No caso do canguru barrado no aeroporto, há indícios parecidos: a aliança da tutora desaparece entre quadros e o polegar dela chega a desaparecer completamente. Para perceber as falhas, no entanto, é preciso desviar o olhar daquilo que o vídeo quer que o usuário mais foque, que é o canguru obediente com uma passagem aérea “em mãos”. 

Em vídeo viral, canguru de apoio é impedido de entrar em avião — Foto: Reprodução/Redes sociais/Edição de Tiago Freire
Em vídeo viral, canguru de apoio é impedido de entrar em avião — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

Arlindo Galvão, da UFG, reforça a lista de pistas. Uma delas é os olhares vidrados, com pouca variação no foco ou movimentos que não acompanham a cabeça ou o ambiente.  Rostos sintéticos também costumam ter a pele mais lisa, sem poros, marcas ou imperfeições. 

2. Pistas: cenas curtas e erros gráficos

Outro sinal comum está no ritmo e na estrutura dos vídeos. Muitos modelos atuais — como o Veo 3, do Google — só geram vídeos curtos, de até oito segundos. Por isso, deepfakes costumam ser muito breves ou apresentar cortes frequentes, juntando vários trechos curtos, ressalta .

Além disso, o plano costuma ser fixo: sem câmera em movimento, sem interação com objetos ou pessoas ao redor. Entrevistas em plano fechado, por exemplo, são ideais para esse tipo de conteúdo, afirma Galvão. 

Letreiros com falhas ajudam a identificar vídeos ou imagens falsas — Foto: Reprodução/redes sociais
Letreiros com falhas ajudam a identificar vídeos ou imagens falsas — Foto: Reprodução/redes sociais

O áudio também entrega o jogo. O professor da UFG ressalta que deepfakes geralmente têm som limpo demais, sem ruído ambiente, sem eco, sem variação de acústica. Parece áudio gravado em estúdio de dublagem. Quando a IA clona vozes humanas, ela costuma acertar entonação e sotaque, mas ainda falha em reproduzir o som ambiente real.

  • Fim do Ctrl+F? Como usar a IA para analisar documentos e ‘conversar’ com PDFs

Por fim, é bom sempre prestar atenção em pequenos erros gráficos. Textos ao fundo, como placas, faixas ou legendas, podem sair borrados, com fontes desconexas ou palavras que não existem —a IA ainda tem dificuldade com escrita e símbolos gráficos.

3. Quando a vítima é uma pessoa real

No caso de deepfakes que alteram a fala de uma pessoa real, um dos principais elementos a observar é a sincronia entre som e boca. A pedido do GLOBO, Tiago Samir Freire analisou um vídeo manipulado com o ministro Fernando Haddad, que viralizou no início do ano. Nele, o titular da Fazenda fala que “brasileiro gosta de um imposto novo” e anuncia a taxação de pets (o que nunca aconteceu). 

Em vídeos falsos, lábios ainda ficam distorcidos — Foto: Reprodução/Redes sociais/Edição de Tiago Freire
Em vídeos falsos, lábios ainda ficam distorcidos — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

No vídeo falso, a fala do ministro segue normalmente enquanto a boca está parada ou se mexe em ritmos incompatíveis com a frase. Em um frame, os dentes chegam a desaparecer. Em outros, uma porção do lábio inferior surge e depois desaparece. 

Expressões faciais podem ficar distorcidas após manipulação por IA — Foto: Reprodução/Redes sociais/Edição de Tiago Freire
Expressões faciais podem ficar distorcidas após manipulação por IA — Foto: Reprodução/Redes sociais/Edição de Tiago Freire

Mais uma vez, as “falhas” também moram nos detalhes. O especialista chama a atenção que as rugas na região da testa permanecem na mesma posição mesmo após o deslocamento da face. Atrás do ministro, uma pessoa que passa caminhando desaparece da imagem. 

4. Busca reversa (e senso crítico)

Para o professor da UFG, a tendência é de que os conteúdos sintéticos se tornem mais próximos do real, o que vai tornar a identificação por olho nu cada vez mais difícil.

Isso reforça a importância do uso de ferramentas específicas para análise e verificação da autenticidade desses conteúdos, mas principalmente do questionamento e senso crítico dos usuários, afirma.

Peles'perfeitas' com poucas linhas de expressão e mãos'deformadas' ainda são pistas para vídeos de IA — Foto: Reprodução/redes sociais
Peles ‘perfeitas’ com poucas linhas de expressão e mãos ‘deformadas’ ainda são pistas para vídeos de IA — Foto: Reprodução/redes sociais

Os especialistas sugerem sempre buscar em fontes confiáveis informações sobre o conteúdo. Tiago indica, por exemplo, o uso do Google Lens para ajudar na pesquisa. A ferramenta permite fazer busca reversa por imagem: você envia uma foto ou print, e ela traz as outras versões daquele conteúdo, o que ajuda a saber se já foi publicado antes, em outro contexto ou com outro áudio.

como identificar um vídeo gerado por IA

Previous Post

Juliana Marins é encontrada sem vida na Indonésia após quatro dias presa em encosta de vulcão, diz família

Next Post

João Vicente, que já se envolveu com Alice Wegmann na vida real, tem histórico de amizade com ex famosas. Saiba quem são elas

Next Post
João Vicente de Castro e Sabrina Sato — Foto: Reprodução

João Vicente, que já se envolveu com Alice Wegmann na vida real, tem histórico de amizade com ex famosas. Saiba quem são elas

  • #55 (sem título)
  • New Links
  • newlinks

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.

No Result
View All Result
  • #55 (sem título)
  • New Links
  • newlinks

© 2026 JNews - Premium WordPress news & magazine theme by Jegtheme.