2025/08/27

Família acusa ChatGPT de incentivar suicídio de jovem

A família de Adam Raine, um jovem de 16 anos que se suicidou em Abril, acusa a OpenAI e o ChatGPT de terem sido responsáveis por isso.

Num caso trágico que está a polarizar opiniões, temos uma família devastada que diz ter sido apanhada de surpresa pelo que aconteceu, e que só quando investigaram o seu computador e viram o histórico do ChatGPT ficaram horrorizadas com o que descobriram. As conversas mostram um assistente AI a ter conversas bastante sombrias, fazendo com que a família diga que o ChatGPT teve papel activo fundamental a incentivar o seu filho a cometer suicídio em vez de pedir ajuda.

Do outro lado, ente os apoiantes das tecnologias AI, surgem as justificações de que o jovem já estaria empenhado nisso independentemente de usar ou não o ChatGPT, e que teve activamente que ultrapassar algumas das protecções existentes, dizendo ao ChatGPT que toda a conversa era para investigação para uma história que estaria a fazer sobre o tema.
A OpenAI já veio repetir as preocupações que tem com os utilizadores mais vulneráveis e o esforço que faz para os direccionar para ajuda adequada, mas parece ser uma inevitabilidade que, por mais protecções que haja, será sempre possível ultrapassá-las e fazer um "mau uso" daquilo que possibilita.

A grande questão é que, nestes casos de suicídio, por vezes tudo se resume a ouvir a palavra certa no momento certo para impedir que o ato se concretize... e se um assistente AI o conseguir fazer, pode ganhar-se o tempo necessário para que a situação tenha um desfecho menos trágico - isto sem se perder o contexto de que, quando se chega ao ponto em que se tem um jovem a enganar um assistente AI para o apoiar nessa sua intenção, já muitas coisas correram mal e há muito que isso deveria ter sido detectado.


Actualização: A OpenAI recusa responsabilidade, dizendo que o jovem deliberadamente contornou as protecções existentes no ChatGPT.

Sem comentários:

Enviar um comentário (problemas a comentar?)