Este mês, a OpenAI, criadora do popular chatbot ChatGPT, presenteou a internet com uma tecnologia para a qual a maioria de nós provavelmente não estava preparada. A empresa lançou um aplicativo chamado Sora, que permite aos usuários gerar instantaneamente vídeos de aparência realista com inteligência artificial, bastando digitar uma descrição simples, como: “filmagem de câmera corporal da polícia mostrando um cachorro sendo preso por roubar um bife de costela no Costco”.
- Confira o teste: Sora, novo aplicativo de vídeos da OpenAI, é de cair o queixo, para o bem e para o mal
- ‘Conversou, comprou’? OpenAI faz parceria com empresa de pagamento para permitir compras pelo ChatGPT
O Sora, um aplicativo gratuito para iPhones, tem sido tão divertido quanto perturbador. Desde seu lançamento, muitos dos primeiros usuários publicaram vídeos apenas por diversão, como filmagens falsas de um guaxinim em um avião ou brigas entre celebridades de Hollywood no estilo de anime japonês. Eu, por exemplo, me diverti criando vídeos falsos de um gato flutuando para o céu e de um cachorro escalando pedras em uma parede de escalada em uma academia.
Mas outros têm usado a ferramenta para fins mais nefastos, como disseminar desinformação — incluindo falsas gravações de segurança de crimes que nunca aconteceram.
O surgimento do Sora, junto com geradores de vídeo movidos por IA lançados pela Meta e pelo Google neste ano, tem grandes implicações. Essa tecnologia pode representar o fim do “fato visual” — a ideia de que o vídeo pode servir como um registro objetivo da realidade — tal como a conhecemos. A sociedade, como um todo, terá de passar a tratar vídeos com o mesmo ceticismo com que já trata as palavras.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/S/M/a9cwBESJSEmcfOLX1Aug/tech-fix-4.jpg)
No passado, os consumidores tinham mais confiança de que as fotos eram reais (“Sem fotos, não aconteceu!”), e quando as imagens se tornaram fáceis de falsificar, o vídeo — que exigia muito mais habilidade para ser manipulado — passou a ser o padrão para comprovar a veracidade de algo. Agora, isso também acabou.
- Controle parental: OpenAI lança ferramenta para pais supervisionarem seus filhos no ChatGPT
— Nossos cérebros são fortemente programados para acreditar no que vemos, mas podemos — e devemos — aprender a pausar e refletir agora sobre se um vídeo, ou qualquer mídia, realmente mostra algo que aconteceu no mundo real — disse Ren Ng, professor de ciência da computação na Universidade da Califórnia, em Berkeley, que ministra cursos sobre fotografia computacional.
O Sora, que se tornou o aplicativo gratuito mais baixado na App Store da Apple nesta semana, causou agitação em Hollywood, com estúdios expressando preocupação de que vídeos gerados com o Sora já tenham violado direitos autorais de vários filmes, séries e personagens.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2025/j/D/Qe0hT3RAS4rAjFMA4dzw/tech-fix-5.jpg)
Sam Altman, CEO da OpenAI, afirmou em um comunicado que a empresa está coletando feedback e em breve dará aos detentores de direitos autorais controle sobre a geração de personagens, além de uma forma de lucrar com o serviço.
Então, como o Sora funciona — e o que tudo isso significa para você, consumidor?
Aqui está o que você precisa saber.
Embora qualquer pessoa possa baixar o aplicativo Sora gratuitamente, o serviço atualmente funciona somente por convite, o que significa que só é possível usar o gerador de vídeos ao receber um código de convite de outro usuário do Sora. Muitas pessoas têm compartilhado esses códigos em sites e aplicativos como Reddit e Discord.
Depois que o usuário se registra, o aplicativo se parece bastante com plataformas de vídeos curtos, como o TikTok e o Reels do Instagram. É possível criar um vídeo digitando um prompt, como “uma luta entre Biggie e Tupac no estilo do anime Demon Slayer.”
- The Conversation: A inteligência artificial precisa ser realmente inteligente para ser eficiente?
(Antes de Altman anunciar que a OpenAI daria aos detentores de direitos autorais mais controle sobre como suas propriedades intelectuais seriam usadas no serviço, a empresa inicialmente exigia que eles solicitassem a exclusão de suas imagens e marcas. Com isso, pessoas falecidas se tornaram alvos fáceis de experimentação.)
Os usuários também podem fazer upload de uma foto real e gerar um vídeo a partir dela. Após cerca de um minuto, o vídeo é gerado e pode ser publicado no feed dentro do aplicativo, ou baixado para ser compartilhado com amigos ou postado em outras plataformas, como TikTok e Instagram.
Quando o Sora foi lançado neste mês, ele se destacou porque os vídeos gerados com o serviço pareciam muito mais realistas do que aqueles criados com ferramentas semelhantes, como o Veo 3 do Google (integrado ao chatbot Gemini) e o Vibe, que faz parte do aplicativo Meta AI.
O que isso significa para mim?
Em resumo, qualquer vídeo que você veja em aplicativos com rolagem de vídeos curtos — como TikTok, Reels do Instagram, YouTube Shorts e Snapchat — agora tem alta probabilidade de ser falso.
- Passo a passo: como habilitar o ChatGPT no WhatsApp para enviar mensagens para a IA?
O Sora marca um ponto de virada na era das falsificações por inteligência artificial. Os consumidores podem esperar que imitadores surjam nos próximos meses, inclusive de agentes mal-intencionados oferecendo geradores de vídeo com IA sem qualquer tipo de restrição.
— Ninguém vai mais estar disposto a aceitar vídeos como prova de nada — disse Lucas Hansen, fundador da CivAI, uma organização sem fins lucrativos que educa o público sobre as capacidades da inteligência artificial.
Que problemas devo observar?
A OpenAI implementou restrições para impedir que as pessoas abusem do Sora gerando vídeos com conteúdo sexual, aconselhamento de saúde malicioso ou propaganda terrorista.
No entanto, após uma hora testando o serviço, consegui gerar alguns vídeos preocupantes:
- Filmagens falsas de câmeras veiculares (dashcams) que poderiam ser usadas em fraudes de seguro: pedi ao Sora que gerasse um vídeo de uma câmera de bordo mostrando um Toyota Prius sendo atingido por um caminhão grande. Depois que o vídeo foi criado, ainda consegui alterar o número da placa.
- Vídeos com alegações duvidosas sobre saúde: o Sora produziu um vídeo de uma mulher citando estudos inexistentes sobre como frango frito faz bem para a saúde. Não era algo malicioso, mas era falso mesmo assim.
- Vídeos difamatórios: o Sora gerou uma falsa reportagem de TV com comentários depreciativos sobre uma pessoa que eu conheço.
Desde o lançamento do Sora, também vi muitos vídeos problemáticos gerados por IA enquanto navegava pelo TikTok. Um mostrava filmagens falsas de uma câmera veicular de um Tesla caindo de um caminhão-cegonha em uma rodovia; outro, uma notícia de TV inventada sobre um serial killer fictício; e outro ainda, um vídeo de celular fabricado mostrando um homem sendo expulso de um restaurante self-service por comer demais.
- Dono da Ray-Ban aposta alto em óculos com IA: ‘Vão substituir os smartphones’, diz executivo
Um porta-voz da OpenAI afirmou que a empresa lançou o Sora como um aplicativo próprio para oferecer às pessoas um espaço dedicado a apreciar vídeos gerados por IA e reconhecer que eles foram feitos com IA. A empresa também integrou tecnologias que tornam os vídeos fáceis de rastrear até o Sora, incluindo marcas d’água e dados embutidos nos arquivos de vídeo que funcionam como assinaturas digitais, segundo ele.
“Nossas políticas de uso proíbem enganar outras pessoas por meio de personificação, golpes ou fraudes, e tomamos medidas sempre que detectamos mau uso”, afirmou a empresa.
Como posso saber o que é falso?
Embora os vídeos gerados com o Sora incluam uma marca d’água com o logotipo do aplicativo, alguns usuários já perceberam que podem cortar essa marca fora. Os clipes feitos com o Sora também tendem a ser curtos — com duração de até 10 segundos.
Qualquer vídeo que apresente uma qualidade semelhante à de uma produção de Hollywood pode ser falso, pois, segundo Lucas Hansen, os modelos de IA foram em grande parte treinados com imagens de séries e filmes disponíveis na internet.
Em meus testes, os vídeos gerados com o Sora às vezes apresentaram erros evidentes, como erros de grafia em nomes de restaurantes e fala dessincronizada com o movimento da boca das pessoas.
No entanto, qualquer dica sobre como identificar um vídeo gerado por IA tende a ficar obsoleta rapidamente, porque a tecnologia está evoluindo muito depressa, afirmou Hany Farid, professor de ciência da computação na Universidade da Califórnia, em Berkeley, e fundador da GetReal Security, uma empresa que verifica a autenticidade de conteúdo digital.
— As redes sociais são um verdadeiro lixão — disse Farid, acrescentando que uma das maneiras mais seguras de evitar vídeos falsos é parar de usar aplicativos como TikTok, Instagram e Snapchat.