Primeira lei de segurança dos EUA para Inteligência Artificial é vetada
Segundo noticiado pela agência AP nesta segunda-feira, o governador da Califórnia, Gavin Newsom, vetou um projeto de lei pioneiro sobre Inteligência Artificial, que pretendia implementar as primeiras diretrizes de segurança para o setor nos Estados Unidos e mitigar os potenciais riscos associados à IA.
A regulamentação proposta exigiria que as empresas de tecnologia submetessem seus modelos avançados de IA a testes de segurança antes de disponibilizá-los ao público, além de tornarem públicos os protocolos de segurança adotados. O objetivo era prevenir a manipulação desses modelos para fins prejudiciais, como ataques a infraestruturas estrategicamente importantes.
Em mensagem que acompanhou o veto, divulgada no domingo, Newsom destacou que, apesar de a proposta ser "bem-intencionada", ela focava de forma equivocada nos modelos de IA "mais caros e de grande escala", enquanto modelos "menores e especializados" poderiam representar riscos ainda mais significativos.
O governador também ressaltou que o projeto não levava em consideração o contexto em que o sistema de IA seria utilizado, nem contemplava situações envolvendo decisões críticas ou o uso de dados sensíveis.
"Ao invés disso, o projeto impõe padrões rigorosos até mesmo para as funcionalidades mais básicas", afirmou Newsom, acrescentando que essa não seria a abordagem mais adequada para "proteger o público das ameaças reais impostas pela tecnologia".
Ele reforçou seu apoio à necessidade de regulamentar o setor, mas defendeu iniciativas mais "informáticas", baseadas em "análises empíricas da evolução dos sistemas e capacidades da IA".
A proposta de lei gerou um intenso debate entre empresas de tecnologia, pesquisadores e legisladores. Enquanto alguns acreditam que o projeto abriria caminho para regulamentações do setor em âmbito nacional, outros alertam que ele poderia restringir o desenvolvimento da IA.