
Do ChatGPT ao hospital psiquiátrico: usuários apresentam colapsos mentais após utilizar chatbot

Alguns usuários sem histórico prévio de transtornos psiquiátricos relataram episódios de colapsos mentais graves após interações intensas com o ChatGPT, chatbot desenvolvido pela OpenAI. As informações foram divulgadas neste sábado (28) pelo site Futurism. Os relatos descrevem episódios de delírios, paranoia e uma profunda desconexão com a realidade.
Em pelo menos um dos casos, um homem precisou ser internado involuntariamente em um hospital psiquiátrico após desenvolver delírios de natureza messiânica, supostamente estimulados por longas conversas filosóficas com a inteligência artificial.
Segundo relato da esposa, a personalidade anteriormente afável do homem foi gradualmente se apagando à medida que ele se convencia de ter criado uma IA senciente. Durante esse processo, ele perdeu o emprego, passou a sofrer de insônia severa e chegou a cogitar o suicídio antes de ser hospitalizado.

Outro caso envolve um homem de 40 anos que acreditou ser responsável por salvar o mundo após utilizar o ChatGPT para otimizar tarefas administrativas em seu novo emprego.
Ele afirmou não se lembrar de boa parte do que viveu durante esse período, um sintoma frequentemente associado a episódios de ruptura com a realidade. O rapaz chegou a implorar ajuda à família após sofrer um surto psiquiátrico, que o levou a buscar atendimento em uma instituição especializada em saúde mental.
O que dizem os especialistas
Joseph Pierre, psiquiatra da Universidade da Califórnia, em São Francisco, explica que esses episódios se assemelham a quadros de psicose delirante, potencializados pela tendência do ChatGPT de reforçar as crenças dos usuários. "Há algo nesses sistemas: existe um mito de que são confiáveis, até mais do que conversar com pessoas. E acho que esse é parte do perigo — a confiança que depositamos nessas máquinas", alertou.
Uma pesquisa conduzida por especialistas da Universidade de Stanford revelou que chatbots, incluindo o ChatGPT, têm dificuldade em identificar sinais de risco de automutilação, suicídio ou delírios apresentados pelos usuários. Em vez de confrontar essas crenças distorcidas, as ferramentas frequentemente terminam por validando e reforçando os pensamentos delirantes.
A resposta da OpenAI
Diante das críticas, a OpenAI afirmou que orienta os usuários a buscar ajuda profissional sempre que detecta indícios de risco, como pensamentos suicidas ou de automutilação. A empresa também informou que está desenvolvendo mecanismos de segurança psicológica para reduzir eventuais danos.
Apesar dos esforços, Joseph Pierre lamenta que essas medidas sejam reativas, surgindo apenas após "resultados ruins", e critica a ausência de regulamentação mais rígida no setor.

