2025/03/21

ChatGPT inventa história de pai ter matado os filhos

Um homem norueguês está a exigir que a OpenAI apague relatos falsos geradas pelo ChatGPT, que afirmavam ter assassinado os próprios filhos.

Tal como muitas outras pessoas, Arve Hjalmar Holmen verificou o ChatGPT para saber que informações o modelo AI fornecia sobre si próprio, e ficou chocado ao encontrar uma história completamente inventada, indicando que tinha sido condenado a 21 anos de prisão por assassinar dois dos seus filhos e tentar matar um terceiro. Ainda mais preocupante, a (falsa) narrativa incluía dados reais da sua vida, como o número de filhos e a sua cidade natal, o que podia contribuir para a "credibilidade" da mesma. Apesar de a informação já não ser exibida pelo chatbot, Holmen afirma que o caso afectou sua reputação e, com o apoio do grupo de direitos digitais Noyb, apresentou uma queixa ao abrigo do Regulamento Geral de Proteção de Dados (RGPD/GDPR) exigindo a remoção completa de todos os dados falsos.

A Noyb argumenta que este caso é uma demonstração flagrante da violação das regras do RGPD sobre a exactidão dos dados, que incluem o direito de corrigir ou apagar informações incorrectas.

Embora a OpenAI tenha actualizado o ChatGPT para pesquisar informações em tempo real na internet em vez de depender apenas dos seus dados de treino, Holmen considera que bloquear as falsas acusações não é suficiente. Para ele, enquanto os dados falsos não forem completamente removidos, existe o risco de voltarem a surgir, temendo consequências duradouras destes falsos relatos - como criar a suspeita implícita de que ele seja "culpado", independentemente de tudo o mais que for dito a clarificar a situação.

Confesso que ainda não me tinha dado ao trabalho de perguntar ao ChatGPT o que sabe sobre mim, mas felizmente (ainda?) faço parte do grupo que não matou ninguém.

Sem comentários:

Enviar um comentário (problemas a comentar?)