O ChatGPT ganha nova funcionalidade que pode alertar um adulto caso um utilizador menor demonstre comportamentos de risco.
A OpenAI lançou uma nova funcionalidade de segurança para o ChatGPT chamada Trusted Contact, pensada para ajudar utilizadores adultos em situações de possível crise emocional ou risco de autoagressão. A opção permite adicionar um contacto de confiança, como um familiar, amigo ou cuidador, que será alertado em caso de conversas relacionadas com suicídio ou automutilação.
A funcionalidade é totalmente opcional e pode ser activada nas definições da conta do ChatGPT. O utilizador escolhe um contacto adulto, que terá de aceitar o convite para ficar associado à conta. O objetivo é criar uma camada adicional de apoio humano em momentos críticos, complementando os serviços de ajuda e linhas de emergência já apresentados pelo chatbot em vários países.
Segundo a empresa, as notificações enviadas ao contacto de confiança serão bastante limitadas e não incluem o conteúdo das conversas nem transcrições dos chats. Quando o sistema detecta sinais preocupantes, o ChatGPT incentiva primeiro o utilizador a procurar ajuda junto do contacto escolhido. Depois disso, o caso será analisado por uma pequena equipa especializada antes de ser decidido se se deve enviar um aviso por email, mensagem ou notificação na aplicação.
A novidade expande ferramentas de segurança já introduzidas anteriormente para contas de adolescentes e surge depois de várias críticas relacionadas com o impacto emocional de interações prolongadas com chatbots AI, com alguns casos dramáticos que resultaram em suicídio. Toda e qualquer medida que ajude a prevenir tais situações será sempre bem vinda.
Subscribe to:
Post Comments (Atom)




















No comments:
Post a Comment (problemas a comentar?)