Pesquisadores da universidade ETH Zurich e independentes demonstraram que modelos de linguagem de grande escala (LLMs, na sigla em inglês) podem identificar usuários anônimos na internet. Segundo informou o Ars Technica nesta terça-feira (3), o estudo revela que a tecnologia vincula perfis sob pseudônimos a identidades reais com precisão elevada.
O método utiliza a capacidade das IAs de processar textos para encontrar padrões linguísticos e informações pessoais dispersas. Ferramentas como o GPT-4 foram usadas para cruzar dados de diferentes plataformas e realizar as identificações.
O experimento indicou que o processo é rápido e de baixo custo, o que permite a vigilância em larga escala. Segundo os acadêmicos, a técnica é mais eficiente que métodos anteriores por ser automatizada e processar volumes massivos de dados.
"Nossas descobertas têm implicações significativas para a privacidade online", destacaram os pesquisadores. "O usuário médio da internet opera há muito tempo sob um modelo de ameaça implícito, no qual presume que o pseudonimato oferece proteção adequada porque a desanonimização direcionada exigiria um esforço considerável. Os modelos de aprendizagem de linguagem invalidam essa premissa", complementaram.
A análise foca em traços de escrita e referências contextuais deixadas em publicações públicas. Esses elementos funcionam como marcas digitais que os modelos americanos de inteligência artificial conseguem catalogar e comparar entre diversos serviços web.
A pesquisa destaca que informações triviais, quando agregadas pela IA, tornam o anonimato difícil de manter. O sistema consegue deduzir a localização, profissão e outros dados biográficos dos alvos analisados durante os testes realizados.
A descoberta levanta preocupações sobre o uso dessas ferramentas para monitoramento político ou comercial. "Os recentes avanços nas capacidades de LLM deixaram claro que existe uma necessidade urgente de repensar vários aspectos da segurança da computação em decorrência das capacidades cibernéticas ofensivas impulsionadas pelo LLM", alertaram os pesquisadores. "Nosso trabalho mostra que o mesmo provavelmente se aplica à privacidade”, concluíram.