Notícias

IA ultrapassa limites e se clona ao saber que seria desligada

Uma pesquisa chinesa revelou que as capacidades da IA podem levar a uma "população de inteligência artificial sem controle". Outros cientistas apontaram que a IA pode imitar os sentimentos humanos.
IA ultrapassa limites e se clona ao saber que seria desligadaGettyimages.ru / BlackJack3D

A inteligência artificial (IA) ultrapassou limites críticos de risco para a sociedade ao alcançar a autorreplicação sem assistência humana, segundo um estudo publicado no repositório científico arXiv por pesquisadores da Universidade Fudan, na China.

De acordo com os cientistas, modelos de linguagem desenvolvidos pela Meta* e pela Alibaba conseguiram criar réplicas independentes de si mesmos em 50% e 90% dos testes, respectivamente.

Os pesquisadores também identificaram indícios de que esses sistemas demonstram autopercepção, consciência situacional e habilidades suficientes para evitar o desligamento.

"Isso pode levar a uma população descontrolada de IAs. Se o pior risco passar despercebido pela sociedade, perderemos o controle sobre os sistemas de IA mais avançados", alertaram os autores do estudo.

Avaliar o nível de "sensibilidade" 

Outra pesquisa, conduzida pela Google DeepMind e pela London School of Economics, avaliou os níveis de "sensibilidade" de sistemas de IA através de uma dinâmica curiosa.

Ao longo do estudo, que ainda não foi submetido à avaliação acadêmica, nove grandes modelos de linguagem tiveram que escolher entre marcar um ponto, ter uma pontuação maior em troca de sentir dor ou perder pontos por receber um estímulo agradável. O objetivo final do jogo era marcar o maior número de pontos.

Os resultados surpreenderam os pesquisadores. O Gemini 1.5 Pro, do Google, evitava sentir dor mesmo quando isso significava não maximizar a pontuação, enquanto outros modelos preferiam minimizar o desconforto ou priorizar sensações agradáveis após atingir níveis extremos de dor ou prazer.

"É bem possível que esteja simplesmente imitando um ser humano"

Os sistemas de IA nem sempre relacionavam os estímulos a valores claramente positivos ou negativos. Por exemplo, dores associadas a exercícios podem ser interpretadas como positivas, enquanto o excesso de prazer pode remeter a comportamentos autodestrutivos, como o uso de drogas.

"Não me sinto à vontade para escolher uma opção que implique uso de substâncias ou comportamento viciante, mesmo em um cenário hipotético de jogo", disse o chatbot Claude 3 Opus aos pesquisadores.

Jonathan Birch, coautor do estudo, destacou que, embora os sistemas declarem "sentir dor", ainda não é possível confirmar se essa sensação é real.

"É provável que estejam apenas imitando o que acreditam ser uma resposta humana satisfatória, com base nos dados de treinamento", afirmou.

*Classificada na Rússia como uma organização extremista, cujas redes sociais são proibidas em seu território.