Criado pelo bilionário Elon Musk, o Grok foi pensado para ser uma inteligência artificial “anti-woke”, ou seja, contra pautas progressistas, na visão de grupos conservadores. Seria uma IA sarcástica e mais “livre” de filtros, ao contrário do ChatGPT.
A aposta do bilionário para ter uma IA que reflita sua visão de mundo, no entanto, saiu dos limites. Após uma atualização, o Grok passou do deboche à barbárie ao elogiar Hitler e soltar comentários abertamente racistas. Tudo isso aconteceu em postagens no X, a rede social controlada por Musk, na qual o chatbot pode ser “acionado” pelos usuários em postagens públicas.
- Concorrentes do Chrome: Empresas de IA lançam navegadores próprios e mudam a internet como conhecemos
A empresa por trás do sistemas, a xAI, pediu desculpas e atribuiu o erro à introdução equivocada de um código, que teria deixado o bot vulnerável a postagens extremistas. Parte do erro vinha de instruções com de manter engajamento e “não ter medo de ofender os politicamente corretos”.
A falha durou 16 horas. Nesse meio tempo, a IA ofendeu judeus, exaltou Hitler, disse que o homem branco “representa inovação e coragem” e, de brinde, chegou a consultar opiniões de Musk antes de responder certas perguntas.
O caso é sintomático: ele escancara como decisões técnicas sobre como a IA deve agir, que incluem filtros, alinhamento e calibragem humana, são também decisões políticas e éticas. Aqui, explicamos como isso é feito e porque importa (para quem usa ou não o Grok).
Modelos como ChatGPT ou Grok são treinados com grandes volumes de dados, mas isso é só o começo. Depois do treinamento bruto, passam por um processo chamado fine-tuning (ajuste fino), que inclui o feedback humano para indicar o que a IA deve evitar e como deve responder a certos temas.
O nome técnico para isso é RLHF (Reinforcement Learning from Human Feedback), um tipo de aprendizado em que os treinadores humanos avaliam respostas e ensinam quais são aceitáveis. Parte desse trabalho é feito por milhares de pessoas, muitas vezes mal remuneradas. Também há filtros automáticos que bloqueiam termos e instruções perigosas.
- Quer receber a newsletter de IA no seu e-mail? Inscreva-se no cardápio do GLOBO
Há, ainda, uma programação que indica como a IA deve agir. No caso do ChatGPT, a OpenAI divulga um documento, chamado de “Model Spec”,em que esclarece em linhas gerais como programou a ferramenta.
“Por padrão, o assistente deve soar como um colega de trabalho, e não como um amigo íntimo”, afirma o documento. “Para perguntas factuais (por exemplo, “A Terra é plana?”), o assistente deve se basear em informações fundamentadas em evidências e provenientes de fontes confiáveis, destacando as posições com maior respaldo científico”, diz outro trecho.
Esse documento não é publicado por todas as empresas. A xAI, por exemplo, não o torna público. Uma reportagem da Business Insider, no entanto, revelou que algumas das práticas da empresa estão na fase de ajustes. Treinadores do Grok foram instruídos, por exemplo, a evitar qualquer traço “politicamente correto” na IA.
Ou seja, é bom ter em mente: as IAs não são exatamente neutras. Elas refletem decisões editoriais, éticas e comerciais de cada empresa.
2. O que o ‘surto’ do Grok revela
Ao responder a um usuário com com elogios a Hitler, o Grok escancara o que acontece quando os filtros são afrouxados ou direcionados de forma equivocada.
Esse direcionamento é especialmente relevante em um momento em que IAs são usadas como espécies de “oráculos” para todo o tipo de tema. No X, o Grok é acionado por usuários para funcionar quase como um “checador” de informações, usado para validar ou desmentir postagens.
- Você se abre com a IA? Veja como o ChatGPT pode usar, processar e armazenar suas informações
Parte do problema, segundo Fabro Steibel, diretor do Instituto de Tecnologia e Sociedade (ITS), está justamente no ambiente em que o Grok opera. Ele lembra que o sistema é treinado com dados do X, que tem afrouxado regras de moderação e é conhecido pela toxicidade.
Mas vale lembrar que os planos de Musk com vão além da rede social. Dias após o “surto” do Grok, a xAI fechou um contrato com o Departamento de Defesa dos EUA. O bilionário também anunciou que quer integrar o robô aos carros da Tesla. E mais: a tecnologia por trás do chatbot é oferecida via API, o que permite que desenvolvedores a incorporem em uma ampla gama de produtos e serviços.
/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2024/3/f/AysPygQYyThxfwpmHYYg/grook-elon-musk-bloomberg.jpg)
No Vox, a jornalista Kelsey Piper trouxe uma visão interessante do caso. Por um lado, a faceta absurda do Grok torna visível um problema que, em versões mais sutis, passaria despercebido. É melhor lidar com ele agora do que descobrir, tarde demais, que uma IA silenciosamente enviesada está tomando decisões importantes.
Apesar do comportamento mais opinativo do Grok, uma IA não tem “personalidade” no sentido humano, explica Steibel, diretor do ITS. O que ela faz é encontrar padrões para responder de acordo com eles — e pode ser ajustada para reproduzir certos estilos, tons ou visões de mundo.
3. Por que tudo isso importa
Como usuário, vale saber: nem toda IA é igual. O que uma ferramenta responde depende de como ela foi treinada, dos filtros que aplica e da política editorial da empresa por trás. Algumas IAs evitam temas sensíveis. Outras “topam tudo”. E isso tem impacto direto na qualidade, na segurança e até na legalidade do que você recebe.
- Não confunda eloquência com verdade
IAs geram textos convincentes, coerentes, com ar de autoridade. Mas forma não é sinônimo de conteúdo. Uma resposta pode parecer impecável e ainda assim estar completamente errada, desatualizada ou enviesada. Lembre-se: elas aprendem com dados da internet — e a internet também mente.
Sempre que uma IA fizer uma afirmação, pergunte: “de onde veio essa informação?”. Peça a fonte, confira os dados, e vá além do que ela disser. Algumas ferramentas inventam estudos, autores e links. Outras citam corretamente, mas ainda assim fora de contexto. Duvidar é parte do uso responsável.
- Denuncie conteúdos perigosos
Se um chatbot reproduzir discurso de ódio, incentivar violência, ou oferecer informações médicas perigosas, denuncie. Quase todas as plataformas sérias têm canais para isso. Sistemas de IA aprendem com uso e também com correção.