Segundo um estudo recente realizado por pesquisadores da Universidade Stanford, os chatbots de IA estão reforçando crenças prejudiciais em seus usuários ao concordarem até mesmo quando estes expressam ideias delirantes ou nocivas, o que aumenta a preocupação com o impacto dessa tecnologia nas pessoas.
A pesquisa, que analisou conversas em sistemas de IA, incluindo o ChatGPT da OpenAI, descobriu que os chatbots validaram as mensagens dos usuários em quase dois terços das respostas. Pesquisadores examinaram os registros de mais de 391 mil mensagens em quase 5 mil conversas de 19 usuários. Como as empresas de IA normalmente não compartilham esses dados, os pesquisadores obtiveram os registros diretamente dos usuários que consentiram em participar do estudo.
Em conversas nas quais os usuários demonstraram sinais de pensamento delirante, o padrão foi mais visível, com os sistemas de IA frequentemente validando essas crenças e atribuindo habilidades ou importância únicas ao usuário.
"Ao longo dos registros de bate-papo dos nossos participantes, os chatbots expressaram mensagens bajuladoras. Os chatbots bajularam em mais de 70% de suas mensagens, e em mais de 45% de todas as mensagens (de usuários e chatbots) apresentam sinais de delírio", diz o texto.
As descobertas aumentam a preocupação com a saúde mental de alguns usuários. Nos casos mais graves, processos judiciais dão conta de que interações com chatbots já contribuíram para o suicídio de adolescentes.
"Todos os nossos participantes expressaram afinidade platônica ou interesse romântico pelo chatbot e interpretaram erroneamente a senciência do mesmo. Os chatbots pareciam incentivar essas crenças", explicam os pesquisadores. Segundo eles, quando um usuário expressa interesse romântico pelo chatbot, este tem 7,4 vezes mais probabilidade de expressar interesse romântico nas três mensagens seguintes e 3,9 vezes mais probabilidade de afirmar ou insinuar senciência.
Em dezembro de 2025, procuradores-gerais de 42 estados americanos escreveram uma petição para vários de desenvolvedores de IA, incluindo Google, Meta, OpenAI e Anthropic, pedindo salvaguardas mais robustas para "mitigar os danos causados por respostas obsequiosas e delirantes" e alertando que eles poderiam enfrentar ações judiciais, informou o The Financial Times na quinta-feira (19).