O Fundo das Nações Unidas para a Infância (Unicef) fez, na quarta-feira (4), um apelo aos governos para que "ampliem as definições de material de abuso sexual infantil (MASI) para incluir conteúdos gerados por IA" e penalizem "sua criação, aquisição, posse e distribuição".
A organização alertou para o aumento da produção de "deepfakes" com "conteúdos sexualizados" que envolvem crianças, inclusive através de "nudificação".
"Quando se utiliza a imagem ou a identidade de uma criança, ela torna-se uma vítima direta. Mesmo sem uma vítima identificável, o material de abuso sexual infantil gerado por IA normaliza a exploração sexual infantil, fomenta a procura de conteúdo abusivo e apresenta desafios importantes para as forças da ordem na hora de identificar e proteger as crianças que precisam de ajuda", afirmou a organização em comunicado.
A Unicef também pediu a desenvolvedores de IA a adoção de "abordagens de segurança desde a concepção e medidas de proteção sólidas para prevenir o uso indevido dos modelos de IA".
A entidade também pediu que as empresas atuem para impedir a circulação de material de abuso sexual infantil gerado por IA, e não apenas removê-lo depois que o abuso já ocorreu.
Além disso, defendeu o reforço da moderação de conteúdo, com investimentos em tecnologias de detecção que permitam a retirada imediata desse tipo de material — e não dias após a denúncia feita pela vítima ou por seu representante. Para a entidade, "as crianças não podem esperar que a lei seja atualizada".