Notícias

Do ChatGPT ao hospital psiquiátrico: usuários apresentam colapsos mentais após utilizar chatbot

Casos extremos de colapso mental após uso intenso do ChatGPT levantam alertas sobre os limites e riscos da interação com inteligências artificiais.
Do ChatGPT ao hospital psiquiátrico: usuários apresentam colapsos mentais após utilizar chatbotLegion-media.ru / Ascannio

Alguns usuários sem histórico prévio de transtornos psiquiátricos relataram episódios de colapsos mentais graves após interações intensas com o ChatGPT, chatbot desenvolvido pela OpenAI. As informações foram divulgadas neste sábado (28) pelo site Futurism. Os relatos descrevem episódios de delírios, paranoia e uma profunda desconexão com a realidade.

Em pelo menos um dos casos, um homem precisou ser internado involuntariamente em um hospital psiquiátrico após desenvolver delírios de natureza messiânica, supostamente estimulados por longas conversas filosóficas com a inteligência artificial.

Segundo relato da esposa, a personalidade anteriormente afável do homem foi gradualmente se apagando à medida que ele se convencia de ter criado uma IA senciente. Durante esse processo, ele perdeu o emprego, passou a sofrer de insônia severa e chegou a cogitar o suicídio antes de ser hospitalizado.

Outro caso envolve um homem de 40 anos que acreditou ser responsável por salvar o mundo após utilizar o ChatGPT para otimizar tarefas administrativas em seu novo emprego.

Ele afirmou não se lembrar de boa parte do que viveu durante esse período, um sintoma frequentemente associado a episódios de ruptura com a realidade. O rapaz chegou a implorar ajuda à família após sofrer um surto psiquiátrico, que o levou a buscar atendimento em uma instituição especializada em saúde mental.

O que dizem os especialistas

Joseph Pierre, psiquiatra da Universidade da Califórnia, em São Francisco, explica que esses episódios se assemelham a quadros de psicose delirante, potencializados pela tendência do ChatGPT de reforçar as crenças dos usuários. "Há algo nesses sistemas: existe um mito de que são confiáveis, até mais do que conversar com pessoas. E acho que esse é parte do perigo — a confiança que depositamos nessas máquinas", alertou.

Uma pesquisa conduzida por especialistas da Universidade de Stanford revelou que chatbots, incluindo o ChatGPT, têm dificuldade em identificar sinais de risco de automutilação, suicídio ou delírios apresentados pelos usuários. Em vez de confrontar essas crenças distorcidas, as ferramentas frequentemente terminam por validando e reforçando os pensamentos delirantes.

A resposta da OpenAI

Diante das críticas, a OpenAI afirmou que orienta os usuários a buscar ajuda profissional sempre que detecta indícios de risco, como pensamentos suicidas ou de automutilação. A empresa também informou que está desenvolvendo mecanismos de segurança psicológica para reduzir eventuais danos.

Apesar dos esforços, Joseph Pierre lamenta que essas medidas sejam reativas, surgindo apenas após "resultados ruins", e critica a ausência de regulamentação mais rígida no setor.