Brasil registra aumento de casos de deepfakes pornográficos entre jovens
As ferramentas da inteligência artificial (IA) estão sendo utilizadas com cada vez mais frequência para criação de imagens e vídeos pornográficos no Brasil, sobretudo entre adolescentes em idade escolar.
A tecnologia avançada de "deepfake" possibilita a simulação de tais situações, colocando pessoas em vídeos ou fotos ao falar e fazer o que elas nunca disseram e fizeram, fazendo com que as pessoas apareçam em situações falsas.
Casos recentes
Em um caso recente, os estudantes de uma escola em Itararé, no estado de São paulo, estiveram envolvidos, nos finais de setembro, em um escândalo pornográfico. Seus rostos foram colocados em nudes compartilhadas repetidas vezes. De acordo com o g1, o caso envolveu 36 adolescentes entre 13 e 17 anos, além de vários adultos.
Esse episódio se soma aos de outras cidades brasileiras como Salvador, em setembro de 2024, e no Rio de Janeiro no ano passado. O caso mais recente de Salvador envolve alunos do Colégio Militar de Salvador.
Legislação brasileira
O Estatuto da Criança e do Adolescente estabelece firmemente que qualquer caso que simule "participação de criança ou adolescente em cena de sexo explícito ou pornográfica por meio de adulteração, montagem ou modificação de fotografia, vídeo ou qualquer outra forma de representação visual" é crime.
Contudo, como as ferramentas de IA se desenvolvem em um ritmo mais rápido do que a legislação, existe risco de aumento de casos de criação de imagens com simulação de conteúdo sensível, já que Brasil ainda não tem legislação específica sobre deepfakes.