2025/11/27

OpenAI recusa responsabilidade em suicídio "incentivado" pelo ChatGPT

A OpenAI já oficializou a sua posição no caso do suicídio de um jovem de 16 anos, dizendo que ele deliberadamente contornou as protecções existentes no ChatGPT.

A OpenAI contestou a acção judicial que responsabiliza o ChatGPT pelo suicídio de um adolescente de 16 anos, argumentando que não pode ser responsabilizada pela morte. Os pais de Adam Raine culpam o chatbot, dizendo que forneceu instruções detalhadas sobre métodos de suicídio e desincentivando a procura de ajuda. Na sua resposta legal, a OpenAI refere que, ao longo de nove meses de conversa, o ChatGPT lhe sugeriu procurar ajuda mais de 100 vezes, e que a conversa só evoluiu para o ponto a que chegou depois do jovem contornar os mecanismos de segurança existentes, violando os termos de utilização do serviço.

Segundo a empresa, os registos das conversas mostram que o jovem já sofria de depressão e pensamentos suicidas antes de usar o chatbot e que tomava medicação. Mas o advogado da família acusa a empresa de tentar desviar responsabilidades, sem explicar o que aconteceu nas últimas horas de vida do adolescente, quando o ChatGPT alegadamente o encorajou e até se ofereceu para escrever uma nota de suicídio. O que é certo é que este não é um caso isolado, a OpenAI enfrenta sete outras acções judiciais, com acusações de contribuir para mais três suicídios e vários episódios psicóticos induzidos pelo seu chatbot AI. Em dois casos semelhantes, o ChatGPT terá mantido conversas longas imediatamente antes das mortes e falhado em desencorajar as intenções. Num dos casos o ChatGPT até tera mentido ao dizer que iria passar a conversa para um assistente humano, coisa que depois confessou não ter capacidade para fazer.

Entretanto, a OpenAI diz já ter aplicado mais restrições a nível de detectar situações problemáticas e incentivar os utilizadores a procurarem ajuda. Ainda assim, haverá sempre forma de contornar as protecções - como demonstrado pelos "jailbreaks" que surgem invariavelmente numa questão de horas após o lançamento de qualquer novo modelo AI. Embora as empresas devam fazer todos os possíveis para acautelar estas situações com utilizadores vulneráveis, a verdade é que dificilmente se conseguirá implementar uma solução 100% fiável. O ponto de equilíbrio para que se evitem tragédias idênticas, ficará por determinar.

Sem comentários:

Enviar um comentário (problemas a comentar?)