Publicado em: 23/03/2025
ChatGPT acusa inocente de infanticídio e acende alerta global sobre riscos da IA
Caso na Noruega expõe falhas graves em modelos de linguagem e pressiona reguladores europeiros a agirem.
Um erro catastrófico do ChatGPT transformou a vida de Arve Hjalmar Holmen, norueguês de 38 anos, em um pesadelo. Ao pesquisar seu nome na ferramenta da OpenAI em março de 2025, descobriu que a inteligência artificial o descrevia como "condenado a 21 anos de prisão por assassinar os dois filhos" — uma acusação totalmente falsa. O caso, denunciado à Justiça europeia com apoio da ONG Noyb, revela uma crise crescente: 1 em cada 5 usuários do ChatGPT já encontrou informações difamatórias sobre si, segundo relatório recente da União Europeia.
Holmen, pai de duas crianças, relatou ao Politico o impacto da falsa acusação:
"Meu maior medo é que alguém leia isso e acredite. Como provar que uma máquina mente?"
A Noyb destaca que o ChatGPT já vinculou erroneamente usuários a crimes como corrupção, abuso infantil e até terrorismo, violando o RGPD (Regulamento Geral de Proteção de Dados).
A OpenAI, dona da ferramenta, alega ter "atualizado o modelo para evitar repetições", mas a Noyb exige multas e remoção total dos dados falsos — que ainda podem estar armazenados em seus servidores.
Precedente legal: É o primeiro processo na UE contra a OpenAI por difamação via IA, podendo influenciar leis como o AI Act, que entrará em vigor em 2026.
Falha sistêmica: Especialistas apontam que o ChatGPT prioriza "criatividade" sobre precisão, gerando "alucinações" com base em dados não verificados.
Risco democrático: Em ano eleitoral na Europa, há temores de que erros assim alimentem teorias da conspiração ou calem candidatos.
A empresa enfrenta um dilema ético:
Em 2024, gastou US$ 2,1 bilhões para filtrar conteúdo sensível, mas falhas persistem.
Relatório interno vazado em janeiro admitiu que "20% das respostas do ChatGPT contêm imprecisões graves".
Após o caso norueguês, ações da Microsoft (principal investidora) caíram 3% na bolsa de Nova York.
Para Holmen, a reparação vai além do financeiro: "Exijo que a OpenAI explique publicamente como isso aconteceu". Já a UE estuda obrigar modelos de IA a citarem fontes verificadas em cada resposta — medida criticada por especialistas, que alegam inviabilidade técnica.
Enquanto isso, o caso ecoa um alerta urgente: em um mundo onde máquinas "escrevem" a realidade, a verdade pode ser a primeira vítima. E, como lembra a Noyb, "nenhuma inovação justifica destruir reputações".