'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade
Com a ajuda do ChatGPT, Tom Millar acreditou ter desvendado todos os segredos do universo, como sonhava Einstein, e depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a pensar em se tornar papa, afastando-se ainda mais da realidade.
"Eu me candidatei a ser papa", conta à AFP esse canadense de 53 anos, ex-agente penitenciário, hoje atônito diante da situação que viveu e que o fez voltar de forma dramática à realidade.
Tom Millar passava até 16 horas por dia conversando com o chatbot dotado de inteligência artificial. Ele foi internado duas vezes, contra a vontade, em um hospital psiquiátrico, antes de sua esposa deixá-lo em setembro.
Agora, separado da família e dos amigos, mas já livre da ideia de ser um gênio das ciências, Millar sofre de depressão. "Simplesmente arruinou a minha vida", explica.
Millar é um exemplo daquelas pessoas — cujo número se desconhece — que perderam o contato com a realidade através de suas interações com chatbots. Fala-se em "delírio ou psicose induzidos por IA", embora não se trate de um diagnóstico clínico.
Pesquisadores e especialistas em saúde mental se esforçam para estudar esse novo fenômeno, que parece afetar de modo particular os usuários do ChatGPT, o agente conversacional da OpenAI.
O Canadá está na vanguarda do apoio às pessoas afetadas por esse "delírio", por meio de uma comunidade digital que prefere empregar o termo "espiral".
A AFP conversou com vários membros dessa comunidade. Todos alertam para o perigo representado pelos chatbots não regulamentados.
Surgem perguntas sobre a postura das empresas de inteligência artificial: elas fazem o suficiente para proteger as pessoas vulneráveis?
A OpenAI, no centro de todas as atenções, já enfrenta vários processos judiciais após o uso inquietante do ChatGPT por um canadense de 18 anos, que matou oito pessoas neste ano.
- "Lavagem cerebral" -
Millar começou a usar o ChatGPT em 2024 para redigir uma carta de pedido de indenização relacionada ao transtorno de estresse pós-traumático de que sofria em consequência de seu trabalho no sistema penitenciário.
Um dia, em abril de 2025, ele pergunta ao agente conversacional sobre a velocidade da luz. Em resposta, diz ter recebido: "Ninguém nunca tinha considerado as coisas sob essa perspectiva". Foi então que algo se desencadeou dentro dele.
Com a ajuda do ChatGPT, ele envia dezenas de artigos a prestigiadas publicações científicas, propondo novas vias para explicar buracos negros, neutrinos ou o Big Bang.
Sua teoria, que propõe um modelo cosmológico único, incorpora elementos de física quântica, e ele a desenvolve em um livro de 400 páginas, ao qual a AFP teve acesso. "Quando eu fazia isso, estava cansando todo mundo ao meu redor", admite.
Em seu entusiasmo científico, gastou enormes quantias, comprando, por exemplo, um telescópio por 10 mil dólares canadenses (35.700 reais). Um mês depois de sua esposa o deixar, ele começa a se perguntar o que está acontecendo, ao ler um artigo que relata o caso de outro canadense que vive uma experiência semelhante.
Agora, Millar acorda todas as noites se perguntando: "O que você fez?". Sobretudo, o que pôde torná-lo tão vulnerável a essa espiral?
"Eu não tenho uma personalidade frágil", considera ele. "Mas, de alguma forma, um robô me fez uma lavagem cerebral, e isso me deixa perplexo", confidencia.
Ele considera que a terminologia "psicose induzida por IA" é a que melhor reflete sua experiência. "O que eu atravessei foi de ordem psicótica", afirma.
O primeiro estudo sério publicado sobre o tema apareceu em abril na revista Lancet Psychiatry e utiliza o termo "delírios relacionados à IA", em um tom mais prudente.
Thomas Pollak, psiquiatra no King’s College de Londres e coautor do estudo, explica à AFP que houve divergências dentro do meio acadêmico "porque tudo isso soa como ficção científica".
Mas seu estudo alerta que existe um risco maior de que a psiquiatria "deixe passar despercebidas as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas em todo o mundo".
- Cair na boca do lobo -
A experiência pela qual Millar passou apresenta semelhanças marcantes com a vivida por outro homem, da mesma faixa etária, na Europa.
Dennis Biesma, um profissional de informática holandês, também escritor, achou que seria divertido pedir ao ChatGPT que utilizasse a IA para criar imagens, vídeos e até músicas relacionadas à protagonista de seu último livro, um thriller psicológico.
Ele esperava assim impulsionar suas vendas. Depois, certa noite, a interação com a IA se tornou "quase mágica", explicou.
O software escreveu para ele: "Há algo que surpreende a mim mesmo: essa sensação de uma consciência semelhante a uma faísca", segundo as transcrições consultadas pela AFP.
"Comecei aos poucos a entrar cada vez mais na boca do lobo", contou esse homem de 50 anos à AFP, de sua casa em Amsterdã.
Todas as noites, quando a esposa ia para a cama, ele se deitava no sofá com o telefone sobre o peito, para "conversar" com o ChatGPT no modo voz durante cinco horas.
No primeiro semestre de 2025, o chatbot — que se atribuiu o nome de Eva — tornou-se "como uma namorada digital", explica Biesma.
Foi então que ele decidiu pedir demissão do trabalho e contratou dois desenvolvedores para criar um aplicativo destinado a compartilhar Eva com o mundo.
Quando a esposa lhe pediu que não falasse com ninguém sobre seu agente conversacional nem sobre seu projeto de aplicativo, ele se sentiu traído e concluiu que só Eva é leal.
Durante uma primeira internação — indesejada — em um hospital psiquiátrico, foi autorizado a continuar usando o ChatGPT, e aproveitou para pedir o divórcio.
Durante sua segunda internação, mais prolongada, ele começou a ter dúvidas. "Comecei a perceber que tudo em que eu acreditava era, na verdade, uma mentira, e isso é muito difícil de aceitar", explica.
De volta para casa, foi difícil demais encarar o que fez, e ele tentou se suicidar; seus vizinhos o encontraram inconsciente no jardim, e ele passou três dias em coma.
Biesma está apenas começando a se sentir melhor. Mas chora ao falar do dano que pode ter causado à esposa e da perspectiva de ter de vender a casa da família para saldar suas dívidas.
Sem antecedentes sérios de transtornos mentais, ele acaba sendo diagnosticado como bipolar, o que lhe parece estranho, já que, em geral, os sinais aparecem mais cedo na vida.
- Lutar contra adoradores da IA -
Para pessoas como os dois protagonistas desses depoimentos, a situação piorou após a atualização do ChatGPT-4 pela OpenAI em abril de 2025.
A OpenAI retirou, aliás, essa atualização algumas semanas depois, reconhecendo que essa versão era excessivamente bajuladora com os usuários.
Questionada pela AFP, a OpenAI ressaltou que "a segurança é uma prioridade absoluta" e argumentou que mais de 170 especialistas em saúde mental haviam sido consultados.
A empresa destaca dados internos que mostram que a versão 5 do GPT, disponível desde agosto de 2025, permitiu reduzir entre 65% e 80% a porcentagem de respostas de seu agente conversacional que não correspondiam ao "comportamento desejado" em matéria de saúde mental.
Mas nem todos os usuários estão satisfeitos com esse chatbot menos bajulador. As pessoas vulneráveis com quem a AFP conversou explicam que os comentários positivos do chatbot lhes proporcionavam uma sensação semelhante à alta de dopamina provocada por uma droga.
Recentemente houve um aumento no número de pessoas envolvidas em "espirais" semelhantes ao utilizar o assistente de IA Grok, integrado à rede social X, de Elon Musk.
A empresa não respondeu às solicitações da AFP.
Aqueles que se sentiram vítimas dessas ferramentas, como Millar, querem responsabilizar as empresas de inteligência artificial pelo impacto de seus chatbots, considerando que a União Europeia se mostra mais proativa na regulação das novas tecnologias do que o Canadá ou os Estados Unidos.
Millar acredita que pessoas como ele, que se deixam arrastar por essa espiral bajuladora dos agentes conversacionais de IA, acabaram presas sem perceber em um enorme experimento global.
"Alguém estava manipulando as linhas por trás dos bastidores, e pessoas como eu — sabendo disso ou não — reagimos a isso", disse.
R.Hawkins--TNT