A família de Adam Raine, um jovem de 16 anos que se suicidou em Abril, acusa a OpenAI e o ChatGPT de terem sido responsáveis por isso.
Num caso trágico que está a polarizar opiniões, temos uma família devastada que diz ter sido apanhada de surpresa pelo que aconteceu, e que só quando investigaram o seu computador e viram o histórico do ChatGPT ficaram horrorizadas com o que descobriram. As conversas mostram um assistente AI a ter conversas bastante sombrias, fazendo com que a família diga que o ChatGPT teve papel activo fundamental a incentivar o seu filho a cometer suicídio em vez de pedir ajuda.
Do outro lado, ente os apoiantes das tecnologias AI, surgem as justificações de que o jovem já estaria empenhado nisso independentemente de usar ou não o ChatGPT, e que teve activamente que ultrapassar algumas das protecções existentes, dizendo ao ChatGPT que toda a conversa era para investigação para uma história que estaria a fazer sobre o tema.
A OpenAI já veio repetir as preocupações que tem com os utilizadores mais vulneráveis e o esforço que faz para os direccionar para ajuda adequada, mas parece ser uma inevitabilidade que, por mais protecções que haja, será sempre possível ultrapassá-las e fazer um "mau uso" daquilo que possibilita.A few comments on the article about the Su1zid and ChatGPT from the NYTimes-article
— Chubby♨️ (@kimmonismus) August 26, 2025
1. chatGPT did not drive the person to their d3ath. The person had the desire to do it in advance.
2. the person actively tricked the gourdrails by telling ChatGPT it was for a story about… pic.twitter.com/yEY8zsauoP
A grande questão é que, nestes casos de suicídio, por vezes tudo se resume a ouvir a palavra certa no momento certo para impedir que o ato se concretize... e se um assistente AI o conseguir fazer, pode ganhar-se o tempo necessário para que a situação tenha um desfecho menos trágico - isto sem se perder o contexto de que, quando se chega ao ponto em que se tem um jovem a enganar um assistente AI para o apoiar nessa sua intenção, já muitas coisas correram mal e há muito que isso deveria ter sido detectado.
Actualização: A OpenAI recusa responsabilidade, dizendo que o jovem deliberadamente contornou as protecções existentes no ChatGPT.


















Sem comentários:
Enviar um comentário (problemas a comentar?)