Trabalhadoras passam horas vendo conteúdo abusivo para treinar IA na Índia, diz jornal

A reportagem do The Guardian revela que mulheres, responsáveis por classificar material gráfico para treinar algoritmos globais, sofrem com estresse traumático e entorpecimento emocional.

Mulheres em áreas rurais da Índia, responsáveis pela moderação de conteúdo e anotação de dados, pagam custo psicológico para o desenvolvimento da inteligência artificial (IA) global. É o que revela o The Guardian nesta quinta-feira (5), citando conversas com trabalhadoras e especialistas.

Conhecidas como "trabalhadoras fantasma", essas profissionais fazem tarefas que envolvem a exposição prolongada a material violento e explícito para treinar sistemas de IA para reconhecer violência, abuso e danos.

Carga psicológica

"Nos primeiros meses, eu não conseguia dormir. Eu fechava os olhos e ainda via a tela carregando", afirmou ao jornal Monsumi Murmu, que trabalha como moderadora de conteúdo para uma empresa global de tecnologia. Ela revelou que, com tempo, as cenas dos vídeos deixam de ser chocantes. "No fim, você não se sente perturbada, sente-se vazia", desabafou a mulher.

Pesquisas acadêmicas classificam essa atividade como trabalho de alto risco psicológico. Um estudo publicado em dezembro de 2025, que incluiu trabalhadores indianos, identificou o estresse traumático como o risco mais evidente, com relatos de ansiedade, perturbações do sono e pensamentos intrusivos persistentes, mesmo na presença de suporte no local de trabalho.

A socióloga Milagros Miceli, que lidera o estudo "Data Workers' Inquiry", afirmou, segundo o veículo, que a moderação de conteúdo, em termos de risco, é comparável a qualquer indústria letal. O fenômeno do entorpecimento emocional, seguido por uma crise psicológica tardia, é apontado como uma característica definidora da função.

A carga psicológica é agravada pelo isolamento imposto por acordos de confidencialidade rigorosos, que proíbem a discussão do trabalho até com familiares, observou o jornal. Relatos também indicam que profissionais são contratadas sob descrições vagas das atividades, e só descobrem a exposição a conteúdos como abuso sexual ou categorização massiva de material pornográfico após o início do treinamento.