Maioria dos usuários da Internet não consegue identificar IA, afirma um estudo
A literacia de adultos em relação à mídia não está acompanhando o rápido avanço da inteligência artificial (IA) generativa, segundo uma pesquisa publicada na Austrália na segunda-feira. A tendência está deixando os usuários da Internet cada vez mais vulneráveis à desinformação, alertaram os autores da pesquisa.
O setor de IA expandiu muito em 2022 após o lançamento do chatbot e do assistente virtual ChatGPT pela organização de pesquisa de IA dos EUA OpenAI. Desde então, o setor atraiu bilhões de dólares em investimentos, com gigantes da tecnologia, como Google e Microsoft, oferecendo ferramentas como geradores de imagens e textos.
No entanto, a confiança dos usuários em suas próprias habilidades de mídia digital continua baixa, de acordo com o estudo "Adult Media Literacy in 2024" da Western Sydney University.
Durante a pesquisa foram entrevistados 4.442 australianos adultos. Os participantes foram questionados sobre o grau de confiança que tinham para realizar uma série de 11 tarefas relacionadas à mídia que exigiam habilidades e/ou conhecimentos críticos e técnicos. Os entrevistados disseram que poderiam realizar apenas quatro das 11 tarefas com confiança.
Os resultados estão "praticamente inalterados" desde 2021, quando a pesquisa anterior foi realizada, observou o documento.
A capacidade de identificar desinformação on-line não mudou em nada, de acordo com os dados da pesquisa. Em 2021 e em 2024, apenas 39% dos participantes disseram estar confiantes de que poderiam verificar se as informações que encontraram on-line são verdadeiras.
A recente integração da IA generativa on-line torna "ainda mais difícil para os cidadãos saberem em quem ou no que confiar on-line", afirma o relatório.
O lento crescimento da literacia midiática é preocupante, dada a capacidade das ferramentas de IA generativas de produzir deepfakes e desinformação de alta qualidade, disse a professora associada e autora da pesquisa Tanya Notley, conforme citado pela empresa de mídia Decrypt.
"Está ficando cada vez mais difícil identificar onde a IA foi usada. Será usada de maneiras mais sofisticadas para manipular as pessoas com desinformação, e já podemos ver isso acontecendo", alertou.
O combate a isso exige regulamentação, embora isso esteja acontecendo lentamente, disse Notley.
Na semana passada, o Senado dos EUA aprovou um projeto de lei para proteger as pessoas contra o uso não consensual de sua imagem em conteúdo pornográfico gerado por IA. O projeto de lei foi adotado após um escândalo envolvendo imagens pornográficas deepfake da cantora pop norte-americana Taylor Swift que se espalhou pelas mídias sociais no início deste ano.