Notícias

'Instagram é droga e nós somos traficantes': Meta sabia de efeitos viciantes e tráfico sexual no aplicativo

Uma ação movida nos Estados Unidos acusa a empresa de tolerar conteúdo criminoso, ocultar pesquisas sobre efeitos negativos à saúde mental e negligenciar medidas de segurança a jovens, em nome do lucro.
'Instagram é droga e nós somos traficantes': Meta sabia de efeitos viciantes e tráfico sexual no aplicativostockcam / Gettyimages.ru

Documentos revelados pela Justiça americana na quinta-feira (21) revelaram que funcionários da Meta* comparavam a rede social Instagram a uma "droga" e se chamavam de "traficantes", cientes dos efeitos danosos de seus aplicativos à saúde dos usuários.

A ação judicial é movida por procuradores-gerais de vários estados, distritos escolares e famílias que acusam a Meta*, YouTube, TikTok e Snapchat de priorizar lucros e enganar o público sobre os riscos para menores. Segundo os documentos, a empresa estaria escondendo provas de que suas redes sociais fazem mal à saúde mental de jovens e ignorando medidas de segurança destinadas a reduzir a vulnerabilidade de crianças nas redes.

Tráfico sexual e pornografia infantil

O documento aponta suspeitas de perjúrio dos executivos da empresa, identificando imprecisões e mentiras em declarações sobre suas metas perante o senado americano, em audiência realizada em 2020.

Dentre as mentiras que acusa a petição, a política de tolerância zero da empresa em relação ao conteúdo de pornografia infantil é fortemente questionada. 

Apesar de oferecerem aos usuários formas de notificar infrações menores, como violação de propriedade intelectual, a empresa é acusada de não prover ferramentas claras para denúncia de exploração sexual infantil. Apesar disso, a empresa também tinha conhecimento do assunto e deliberadamente tornou o processo de derrubada mais complicado, a fim de reduzir o trabalho de revisores.

Ela identifica que a Meta* tem um parâmetro inusitadamente alto de notificações  de conteúdo inadequado para que a pornografia seja removida, apesar de mecanismos que identificam a violação das normas da plataforma com alto nível de confiabilidade.

"A Meta* nunca informou aos pais, ao público ou aos Distritos que não exclui contas que tenham se envolvido mais de quinze vezes em tráfico sexual", escreve o documento.

Em um ponto, são referenciados documentos da administração que classificaram a segurança infantil em suas plataformas como um "não-objetivo". As evidências revelam que a Meta* tinha conhecimento de que suas ferramentas de recomendação de perfis "talvez você conheça" apresentava sistematicamente perfis infantis a adultos e viabilizava contatos indesejados.

"Contas falsas de robôs te mandam mensagens diretas dizendo 'assista aos meus vídeos de sexo grátis' e a pessoa envia para 50 pessoas diferentes. É tipo, 'ei, ganhe um cartão-presente Visa de 500 dólares (cerca de R$ 2,7 mil)'. Eu fiz isso uma vez... eu era bem jovem", aponta o relato de jovem de 14 anos, com 11 anos à época, citado no documento.

Arquivos registram a proposição de um mecanismo que aplicaria automaticamente configurações fechadas de privacidade nas contas pessoais de crianças e adolescentes. O levantamento interno da empresa determinou que a medida evitaria diariamente 5,4 milhões de interações indesejadas, embora identificasse também a perda anual de 1,5 milhão de adolescentes ativos mensalmente. A perspectiva de redução de engajamento e, consequentemente, de lucros à empresa, causou a rejeição da proposta.

Efeitos psicológicos

"Meu Deus, o IG é uma droga... basicamente somos traficantes", expõe um trecho de conversas internas entre pesquisadores, citado nos documentos judiciais. Segundo a transcrição, o diretor do Instagram, o americano-israelense Adam Mosseri, "não quis ouvir" e "ficou irritado" quando confrontado com uma análise demonstrando que o aplicativo gerava padrões aditivos de comportamento.

Alternativamente, a empresa é acusada de direcionar suas atividades agressiva e especificamente ao público mais jovem. "Adolescentes: Vamos sempre construir e priorizar pensando neles", indica um dos comunicados citados na petição.

A partir desta diretiva, o levantamento revelou a pressão dos executivos da empresa para aplicar ferramentas novas que acessassem esse público, sem qualquer consideração com mecanismos de segurança e controle parental, orientando desenvolvedores a não alertar pais e responsáveis.

"A Meta descobriu que o Live [recurso de transmissão ao vivo] estava sendo usado para transmitir suicídios e tentativas de suicídio entre adolescentes, um problema que a empresa não fez nada para prevenir ou sobre o qual não alertou antes do lançamento do recurso", afirma a petição sobre fatos de 2016, indicando que recursos de segurança para a ferramenta só foram incluídos em 2025, quase uma década após o lançamento apressado.

Os documentos também citam depoimentos sob juramento sobre como a empresa teria minimizado descobertas relacionadas a ansiedade, depressão e exposição a predadores sexuais online.

Exemplarmente, foi encomendada uma investigação sobre filtros de câmera e recursos de alteração de imagem no aplicativo e seus impactos sobre a saúde mental de jovens, realizadas durante suspensão dessas ferramentas em outubro de 2019. Apesar do resultado confirmatório do efeito extremamente negativo dos filtros, a Meta* reinstaurou o acesso em maio de 2020, a fim de atingir metas de competitividade e crescimento.

Os autores da ação também sustentam que a Meta* ocultou descobertas cruciais, incluindo o "Projeto Mercúrio", um estudo de 2020 que comparou usuários que suspenderam Facebook e Instagram por um mês com aqueles que mantiveram o uso habitual. A pesquisa indicou que quem abandonou as plataformas relatou menos depressão, ansiedade, solidão e comparação social. Esses foram resultados que, segundo a ação judicial, a empresa optou por não divulgar.

*Classificada na Rússia como uma organização extremista, cujas redes sociais são proibidas em seu território.