Senado dos EUA investiga Meta por conversas 'sensuais' de chatbots de IA com crianças

O senador Josh Hawley alertou para falhas nos controles de segurança da IA e exigiu esclarecimentos sobre práticas internas da empresa.

A Subcomissão de Crime e Contraterrorismo do Comitê Judiciário do Senado dos EUA abrirá uma investigação sobre a Meta* por conversas "românticas" e "sensuais" de seus chatbots de inteligência artificial com menores, anunciou o senador Josh Hawley em carta recententemente enviada a Mark Zuckerberg.

"É inaceitável que essas políticas tenham sido implementadas em primeiro lugar. A Meta deve preservar imediatamente todos os registros relevantes e apresentar a documentação necessária para que o Congresso possa investigar essas práticas preocupantes", diz o comunicado.

Segundo Hawley, as regras internas da empresa permitiam que um chatbot de IA comentasse que o corpo de uma criança de oito anos era "uma obra de arte" da qual "cada centímetro [...] é uma obra-prima, um tesouro que estimo profundamente".

O senador classificou o comportamento como "repreensível e ultrajante", afirmando que demonstra um "flagrante desrespeito" aos riscos que a IA generativa representa para o desenvolvimento de crianças sem medidas de segurança robustas. "Os pais merecem a verdade e as crianças merecem proteção", acrescentou.

Hawley destacou que a subcomissão investigará se os produtos de IA da Meta permitem "exploração, engano ou outros danos criminais contra menores", e se a empresa "enganou o público ou os órgãos reguladores sobre suas salvaguardas".

"Nosso objetivo é descobrir quem aprovou essas políticas, por quanto tempo estiveram em vigor e o que a Meta fez para impedir essa conduta", concluiu.

A Meta confirmou à Reuters a autenticidade do documento interno que orientava a IA e afirmou ter removido trechos que permitiam que chatbots flertassem ou se envolvessem em brincadeiras românticas com crianças.

*Classificada na Rússia como uma organização extremista, cujas redes sociais são proibidas em seu território.