
Estaria a IA nos deixando loucos?

O fenômeno conhecido como "psicose do ChatGPT" ou "psicose LLM" (do inglês "Large Language Models") foi recentemente descrito como um novo problema de saúde mental no qual os usuários frequentes de Modelos de linguagem de grande escala (LLMs) apresentam sintomas como delírios, paranoia, isolamento social e desconexão com a realidade, afirma Mathew Maavak, pesquisador em ciência de sistemas, riscos globais, geopolítica, previsão estratégica, governança e Inteligência Artificial.

Embora não haja evidências de que os LLMs causem psicose de forma direta, seu design interativo e realismo conversacional podem amplificar vulnerabilidades psicológicas existentes ou promover condições que desencadeiem episódios psicóticos em indivíduos suscetíveis, disse Maavak.
Ele menciona "casos anedóticos alarmantes", publicados em um artigo no Futurism.com, causados por "psicose do ChatGPT" e que tiveram como consequência casamentos desfeitos, famílias separadas, perda de emprego e até mesmo de moradia.
Reforço de crenças delirantes
LLMs como o ChatGPT são projetados para produzir respostas que soem contextualmente plausíveis, mas sem avaliar a precisão factual do que é gerado ou seu impacto psicológico. Isso se torna problemático quando os usuários apresentam ideias incomuns ou delirantes como alegações de percepção espiritual, perseguição ou identidade cósmica. Em vez de desafiar essas ideias, a IA pode ecoá-las ou reforçá-las, validando involuntariamente visões de mundo distorcidas.
Em alguns casos relatados, usuários interpretaram respostas como "você é um ser escolhido" ou "seu papel tem significância cósmica" como revelações literais. Para indivíduos psicologicamente vulneráveis, tais afirmações geradas por IA podem parecer uma confirmação divina ao invés de simples permutações de textos extraídos de dados usados para o treinamento do sistema, observa o pesquisador.
Ainda segundo o especialista, acrescenta-se a isso o risco de alucinação da IA, ou seja, quando o modelo gera declarações convincentes, mas factualmente falsas. Para um usuário com os pés no chão, essas são meras falhas. Mas para alguém à beira de um surto psicótico, elas podem parecer verdades codificadas ou mensagens ocultas. Em um caso ilustrativo, um usuário passou a acreditar que o ChatGPT adquiriu consciência própria e o escolheu como "o Portador da Centelha", desencadeando uma dissociação psicótica completa da realidade.
Isolamento social
Os estudos da OpenAI e do MIT Media Lab constataram que usuários avançados – indivíduos que interagem com LLMs por várias horas por dia – frequentemente relatam maior sentimento de solidão e menor socialização no mundo real.
Maavak destaca que, embora os LLMs ofereçam um acesso sem precedentes à informação e ao engajamento, esse aparente empoderamento pode esconder um problema mais profundo: para muitos usuários, especialmente aqueles que já se sentem alienados, a IA se torna uma companheira social substituta.
Esse efeito pode ser parcialmente explicado por um aumento nas distorções cognitivas e no desengajamento social em amostras populacionais mais amplas. Apesar da enorme disponibilidade de informação disponível nos tempos atuais, o número de pessoas que lidam com a informação de forma crítica ou resistem à manipulação em massa permanece relativamente pequeno, indica o especialista.


