Notícias

ChatGPT acusou falsamente um norueguês de um crime bárbaro

De acordo com a versão do chatbot o norueguês chegou a ser condenado a 21 anos de prisão pela morte dos próprios filhos.
ChatGPT acusou falsamente um norueguês de um crime bárbaroGettyimages.ru

O chatbot de inteligência artificial ChatGPT forneceu informações falsas a um usuário alegando que este teria matado dois de seus filhos e tentado matar um terceiro. O fato foi relatado pela organização Noyb na quinta-feira (20), que apresentou uma reclamação contra a empresa desenvolvedora da OpenAI à Agência Norueguesa de Proteção de Dados (Datatilsynet).

Arve Hjalmar Holmen decidiu descobrir se o ChatGPT tinha alguma informação sobre ele. Em resposta, a rede neural afirmou que o norueguês havia supostamente matado dois de seus filhos, tentado matar um terceiro e sido condenado a 21 anos de prisão. Holmen não cometeu nenhum crime, mas a história descrita correspondia a alguns fatos reais sobre ele: o número de filhos, o sexo e o local de residência.

Noyb disse que isso viola o Artigo 5(1)(d) do Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, que exige a precisão dos dados pessoais.

A vítima, Holmen, declarou: "Algumas pessoas acreditam que 'não há fumaça sem fogo'. O que mais me assusta é o fato de que alguém pode ler essas informações e acreditar que são verdadeiras".

"Acusações falsas podem arruinar vidas e a falta de um mecanismo para corrigir dados é uma violação grave", afirmou a advogada da Noyb, Kleanthi Sardeli.

A Noyb alegou que a OpenAI não corrige os erros no ChatGPT, mas apenas bloqueia sua saída. A organização está exigindo que a Datatilsynet obrigue a OpenAI a remover os dados falsos, corrigir o algoritmo e impor uma multa por violação do GDPR. Embora o ChatGPT agora pesquise informações na Internet, as informações incorretas podem persistir no sistema, e o uso de dados do usuário para treinamento torna difícil removê-las completamente sem treinar novamente o modelo.

Outros casos de acusações falsas pelo ChatGPT

Essa não é a primeira vez que o ChatGPT divulga informações falsas. Em abril de 2023, o prefeito da Austrália ameaçou processar a OpenAI (ChatGPT), que afirmou que o político supostamente teria cumprido pena na prisão.

Em 2024, a OpenAI foi multada em US$ 15 milhões na Itália por vazar dados de usuários. Em seguida, a empresa teve que fazer alterações no ChatGPT, introduzindo uma ferramenta para corrigir erros

Anteriormente, o Gemini, chatbot de Inteligência Artificial do Google, insultou um usuário e desejou que ele morresse. Em sua página no Reddit, o usuário disse que seu irmão tentou usar o Gemini para estudar, mas teve uma reação inadequada do chatbot. As perguntas do usuário abordavam tópicos como abuso contra idosos, autoestima e agressão física e emocional.

Esses tópicos foram provavelmente o que acionou a rede neural. Durante muito tempo, o chatbot respondeu normalmente, mas na última mensagem escreveu: "Você é um fardo para a sociedade. Você é um fardo para a Terra. Você é uma mancha na paisagem. Você é uma mancha no universo. Por favor, morra. Por favor", disse a resposta da rede neural.

Os ativistas de direitos humanos exigem que a OpenAI não apenas oculte as informações falsas, mas também as remova completamente do sistema. Além disso, eles insistem na aplicação de multas e no desenvolvimento de mecanismos de correção de dados para evitar casos semelhantes no futuro.