Apesar do alto grau de exposição nas redes sociais, a maioria dos brasileiros não consegue identificar vídeos realistas gerados por inteligência artificial (IA), conhecidos como deepfakes, o que impõe um grande desafio para autoridades e reguladores no ano eleitoral.
Segundo uma pesquisa realizada pela Veriff, empresa de verificação de identidade digital, 80% dos brasileiros já se depararam com deepfakes no ambiente digital, acima da média internacional, que é de 60%. No entanto, apenas 29% conseguem apontar quando se trata de um vídeo falso e 35% identificam corretamente quando um vídeo é real.
Conflito no Oriente Médio e chuvas em MG impulsionam vídeos falsos com IA e mostram nova face da desinformação
Por que um vídeo com IA em que Tom Cruise luta contra Brad Pitt assustou Hollywood?
É um descompasso que ilustra o avanço rápido da tecnologia, como explica Andrea Rozenberg, diretora de mercados emergentes da Veriff:
— Até dois anos atrás, os indivíduos achavam que conseguiam identificar deepfakes porque, nos vídeos, as pessoas apareciam com seis dedos, com uma orelha faltando etc. As pessoas se acostumaram com sinais que hoje em dia nem são mais apresentados.
De fato, a evolução recente de geradores de vídeo indica desafios complexos, com aumento de fraudes e desinformação online. Ao menos duas novas IAs lançadas em fevereiro impressionam pelo nível de detalhes, realismo e precisão: o Seedance 2.0, da ByteDance, dona do TikTok, e Nanobanana 2, do Google. Além disso, modelos abertos são facilmente acessados por criminosos e golpistas.
— Hoje em dia, com duas fotos, você consegue gerar uma simulação da pessoa. E a gente já não sabe mais dizer o que é real. O olho humano não sabe discernir. É como usar uma moeda para determinar o que é verdadeiro ou falso — diz Andrea.
Na pesquisa da Veriff, os participantes tinham que distinguir oito imagens reais e oito falsas (duas imagens geradas por IA, duas imagens originais, dois vídeos gerados por IA, dois vídeos originais, quatro imagens que passaram por troca de rostos com base em imagens reais e quatro imagens originais utilizadas para a implementação da troca de rostos).
A ausência de soluções puramente tecnológicas aumenta a complexidade. As ferramentas de detecção de deepfakes disponibilizadas por grandes empresas só funcionam com IAs desenvolvidas por elas. Ou seja, a detecção do Google não funciona para IAs da OpenAI e vice-versa.
A esperança de um detector universal de vídeos gerados por IA também enfrenta desafios técnicos, pois os modelos precisam de atualização constante. Um detector pode ter problemas ao lidar com tipos de dados que não fizeram parte do treinamento.
Detectores podem não saber lidar, inclusive, com novas gerações de IAs que participaram do treinamento inicial. Por exemplo, uma ferramenta treinada com dados da primeira versão do NanoBanana, do Google, pode não entender as imagens do NanoBanana 2.
Preocupação
Com esse cenário, os brasileiros pesquisados demonstram preocupações com a tecnologia: 87% disseram se preocupar com fraudes e golpes de identidade, enquanto 81% veem potencial de impacto em conteúdos relacionados à política.
De fato, os medos se confirmam. Dados recentes da Polícia Federal apontam que 42,5% das fraudes financeiras no Brasil utilizam ferramentas de IA, especialmente deepfakes.
No cenário político, o Tribunal Superior Eleitoral (TSE) endureceu as regras para uso de IA na campanha de 2026. Em caso de propaganda eleitoral que utilize imagem, voz ou conteúdo manipulado por IA, o candidato deverá informar que se trata de material fabricado ou alterado, inclusive em versão impressa. Será preciso ainda apontar qual tecnologia foi empregada.
As novas regras também determinam a proibição da publicação, republicação ou do impulsionamento de novos conteúdos produzidos ou alterados por IA nas 72 horas que antecedem o pleito e nas 24 horas posteriores ao seu encerramento.
Mesmo assim, Instagram e TikTok já estão inundados de conteúdos sintéticos, que criticam adversários e elogiam candidatos. E pior: conforme a campanha avança, vídeos desse tipo começam a circular em aplicativos de mensagem, onde a fiscalização sobre a rotulagem de conteúdo é quase impossível de ser feita.
Na semana passada, a federação formada por PT, PV e PC do B pediu à Justiça Eleitoral a suspensão, nas plataformas digitais, do perfil Dona Maria, um avatar criado por inteligência artificial que reproduz a imagem de uma mulher de meia idade crítica ao governo Lula. Um dos vídeos teve 22 milhões de exibições até ser derrubado do Instagram por excesso de palavrões.
O que agrava o cenário é que os brasileiros também criam mais conteúdos do tipo do que a média mundial. Segundo a pesquisa da Veriff, 59% dos entrevistados brasileiros afirmam já ter criado imagens ou vídeos com uso de IA, índice superior ao observado nos Estados Unidos (49%) e no Reino Unido (38%).
Solução
A solução para não ser enganado pode ser mais analógica do que digital. A primeira delas é checar a fonte do material. Ou seja, desconfie sempre.
— Quando veem um vídeo, as pessoas baixam a guarda sobre a origem. O cérebro é treinado da seguinte forma: Existe movimento, então deve ser real. Uma das poucas ferramentas que temos como consumidores ou eleitores é verificar a procedência dela — explica Andrea.
Gabriel Barbabela, chefe de produto da Veriff, dá outras duas dicas analógicas para casos que envolvem valores financeiros. Primeiro, é preciso verificar a urgência da demanda — golpistas costumam demonstrar pressa para a transferência de valores.
A segunda é manter uma “palavra-senha” entre os interlocutores. Ou seja, quando alguém ligar, ou fizer uma chamada de vídeo, sobre assuntos sensíveis ou íntimos, os envolvidos na conversa podem exigir uma palavra previamente combinada que atestam a veracidade das duas pontas da conversa. Ele explica a importância:
— É muito importante o equilíbrio entre pontos para que você não confie em só um canal de comunicação. Você também precisa acrescentar essas camadas do seu lado.

