A OpenAI veio confirmar oficialmente que o comportamento e as políticas do ChatGPT permanecem inalterados, após vários rumores nas redes sociais indicarem que o popular chatbot AI tinha começado a recusar responder a questões médicas ou legais. A confusão começou quando alguns sites começaram a dar visibilidade a essas acusações, com publicações a dizerem que essas "novas regras" iriam impedir o ChatGPT de abordar esses temas.
Karan Singhal, responsável pela área de saúde na OpenAI, desmentiu esses receios, referindo que o ChatGPT nunca foi um substituto para aconselhamento profissional, mas continuará a ser um excelente recurso para ajudar as pessoas a compreender informações legais e de saúde.
A origem da confusão poderá estar numa actualização da política de utilização da OpenAI, publicada a 29 de Outubro, que unificou as regras aplicáveis a todos os produtos da empresa. Nessa actualização, lê-se que os utilizadores não devem usar o serviço para "fornecer aconselhamento personalizado que exija licença profissional, como aconselhamento jurídico ou médico, sem a devida supervisão de um profissional autorizado". No entanto, esta restrição já estava presente nas versões anteriores do documento, que proibiam o fornecimento de aconselhamento individual em áreas como direito, saúde, ou finanças, sem revisão profissional e aviso sobre as limitações do uso de AI.Not true. Despite speculation, this is not a new change to our terms. Model behavior remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information. https://t.co/fCCCwXGrJv
— Karan Singhal (@thekaransinghal) November 3, 2025
Em resumo, o ChatGPT continua a poder explicar e contextualizar informações legais e médicas, mas não deverá ser usado cegamente em substituição do aconselhamento de profissionais qualificados.


















Sem comentários:
Enviar um comentário (problemas a comentar?)