
Google libera uso de IA para produção de armas: o que isso significa para o futuro da tecnologia?

O Google revisou seus princípios de Inteligência Artificial (IA), retirando restrições ao uso da tecnologia para o desenvolvimento de armas e ferramentas de vigilância.
A atualização, anunciada na terça-feira, altera a posição anterior da empresa contra aplicativos que poderiam causar "danos gerais".

Em 2018, o Google estabeleceu um conjunto de princípios de IA em resposta às críticas sobre seu envolvimento em projetos militares, como uma iniciativa do Departamento de Defesa dos EUA que usava IA para processar dados e identificar alvos em operações de combate.
As diretrizes originais proibiam explicitamente o uso da IA em armas ou tecnologias que facilitassem danos a pessoas, além de vetar sua aplicação em vigilância que violasse normas internacionais.
Na nova versão dos princípios, esses pontos foram removidos. Em vez disso, o CEO do Google DeepMind, Demis Hassabis, e o executivo sênior de tecnologia e sociedade, James Manyika, apresentaram uma lista revisada dos "princípios fundamentais" da empresa para a IA.
Entre os novos compromissos, o Google destaca a inovação, a colaboração e a defesa da ideia de que "as democracias devem liderar o desenvolvimento da IA, guiadas por valores como liberdade, igualdade e respeito aos direitos humanos".
'Tecnologia que pode matar pessoas'
Margaret Mitchell, ex-co-líder da equipe de IA ética do Google, afirmou à Bloomberg que a remoção da cláusula sobre "danos" pode indicar que a empresa agora está disposta a desenvolver tecnologia letal.
O The Washington Post revelou, com base em documentos internos, que o Google colaborou com os militares israelenses desde as primeiras semanas dos bombardeios de Israel contra Gaza, competindo com a Amazon para fornecer serviços de IA.
Pouco após a operação militar do Hamas contra Israel, em outubro de 2023, a divisão de nuvem do Google teria concedido às Forças de Defesa de Israel acesso a ferramentas de IA, apesar de a empresa afirmar publicamente que seu envolvimento se limitava a ministérios do governo civil.
Preocupações crescentes
A mudança na política do Google ocorre em meio a alertas sobre os riscos da IA para a humanidade.
Geoffrey Hinton, pioneiro na área e ganhador do Prêmio Nobel de Física de 2024, afirmou no final do ano passado que a tecnologia pode levar à extinção humana nas próximas três décadas, estimando essa probabilidade em até 20%.
Hinton alertou que sistemas de IA podem superar a inteligência humana, escapar do controle e causar danos catastróficos. Ele defendeu mais investimentos em segurança e no uso ético da tecnologia, além do desenvolvimento de medidas preventivas.