O filósofo Nick Bostrom é conhecido por defender a ideia de que os avanços na inteligência artificial (IA) podem levar ao surgimento da “superinteligência” — um intelecto que supera muito a capacidade cognitiva humana em praticamente todos os domínios, representando risco existencial para a humanidade. Em sua visão distópica, Bostrom compara nossa futura relação com “máquinas superinteligentes” à dos gorilas, que vivem sob o domínio humano, sem controle sobre seu próprio destino. Embora não haja evidências científicas conclusivas sobre se a superinteligência existirá, o rápido progresso da IA tem colocado em discussão questões fundamentais para nós, humanos. Entre elas, até que ponto estamos dispostos a delegar decisões a sistemas autônomos e quem será responsabilizado quando algo der errado.
- Acordo aprovado pelo TCU: concessionária do Galeão terá de vencer novo leilão
Exercer controle sobre algo envolve livre-arbítrio. Em sua abordagem sobre o livre-arbítrio, o Dicionário de Filosofia de Stanford contemporiza: “Ao avaliar a importância do livre-arbítrio, somos forçados a considerar questões sobre certo e errado; bem e mal; virtude e vício; culpa e elogio; recompensa e punição; e merecimento. O tema do livre-arbítrio também suscita questões puramente empíricas que começam a ser exploradas nas ciências humanas: nós o possuímos e em que grau?”. Alan Turing — no artigo “Can digital computers think?”, de maio de 1951, pondera que o livre-arbítrio pode ser mera ilusão ou pode ser que realmente o tenhamos. Conclui que, se uma máquina pretende imitar o cérebro biológico, precisa se comportar como se tivesse livre-arbítrio.
- A partir de segunda: Trump proíbe entrada de cidadãos de 12 países nos EUA; veja quais são
Muito antes de Turing, Freud incluiu entre as ilusões humanas o culto ao livre-arbítrio e à autonomia. No artigo “Uma dificuldade no caminho da psicanálise” (1917), conhecido como “As três feridas narcísicas”, ele argumenta que o amor-próprio dos seres humanos sofreu três severos golpes: primeiro, o golpe cosmológico, com Copérnico deslocando a Terra — e, consequentemente, os humanos — do centro do Universo, abalando o senso humano de superioridade; segundo, o golpe biológico, com Darwin questionando a presunção humana de sua separação do reino animal ao reconhecer uma origem comum; e terceiro, para Freud o maior golpe, o advento do ego ou inconsciente, pondo em xeque a pretensão de controle sobre tudo o que se passa em nossa própria mente.
Em 1993, o historiador Bruce Mazlish (“The fourth discontinuity: The co-evolution of humans and machines”) reinterpreta as feridas narcísicas de Freud, denominando-as de “eliminação de falsas descontinuidades”. Ele introduz uma quarta descontinuidade, ao reivindicar a relação simbiótica e contínua entre máquinas e humanos.
No artigo “A inteligência artificial generativa como quarta ferida narcísica do humano”, em coautoria com Lucia Santaella, comparamos a repercussão do ChatGPT às soluções de IA generativa envolvendo imagens. Enquanto a produção de imagens e vídeos afeta apenas um nicho da criação humana — aquele ocupado por profissionais que operam nos inumeráveis campos da visualidade —, o ChatGPT e congêneres afetam todos os seres humanos em sua capacidade linguística. Os modelos do tipo LLM, ao acessar a linguagem, atributo que nos diferencia das demais espécies, ilustram a quarta descontinuidade de Mazlish.
Os “agentes de IA”, aparentemente o hype de 2025, capazes de agir com supervisão humana reduzida — tema de minha coluna coluna “O hype da vez: agentes de IA”, na revista Época Negócios —, ao colocarem em xeque o resto da ilusão de nosso controle sobre processos decisórios, podem configurar-se como quinta ferida narcísica. A inteligência artificial erode o que restou de nossas crenças sobre o que nos torna únicos na natureza.
*Dora Kaufman, professora na PUC-SP e colunista da Época Negócios, é autora do livro “Desmistificando a inteligência artificial”
