A Anthropic admitiu que fez alterações recentes ao Claude que reduziram (significativamente) a qualidade das respostas, confirmando as queixas dos utilizadores nas últimas semanas. A empresa refere que os problemas afectaram ferramentas como o Claude Code e serviços associados, mas não a API. Segundo a sua suposta "investigação interna", várias mudanças feitas em Março e Abril contribuíram para um desempenho mais fraco e inconsistente.
Um dos principais problemas surgiu com a redução do nível de esforço de raciocínio, um parâmetro que define o quanto o modelo "pensa" antes de responder. A alteração visava reduzir o tempo de resposta, mas acabou por prejudicar a qualidade das respostas. A decisão já foi revertida, depois de os utilizadores mostrarem que preferem maior precisão em vez de rapidez. Outro problema resultou de um bug numa optimização de cache, que acabou por apagar os dados de sessão a cada interacção. Isto fez com que o Claude parecesse esquecer o contexto e repetir-se com frequência. O erro foi corrigido mais tarde, mas também provocou grande frustração na experiência de utilização.
Por fim, uma tentativa de tornar as respostas mais curtas também falhou, após uma alteração no system prompt ter provocado uma queda significativa no desempenho. Essa mudança foi igualmente revertida.
O que torna todos estas "lapsos" ainda mais censuráveis é o facto da Anthropic se ter mantido em silêncio durante todas estas semanas, ignorando as queixas e relatos dos utilizadores e clientes. Mais do que isso, ainda no início do mês - depois das alterações terem sido feitas - veio assegurar publicamente que "não piorava os seus modelos" por estar com excesso de carga; coisa que agora fica demonstrado ter sido precisamente o que fez.we don’t degrade our mod— https://t.co/KD9lNKCH87 pic.twitter.com/gVFnVAuPoE
— NIK (@ns123abc) April 23, 2026
Este incidente vem juntar-se a todos os outros, incluindo o da contabilização excessiva de tokens, redução de funcionalidades, e aumento de preço, que têm feito com que muitos dos clientes conquistados recentemente comecem a reconsiderar usar outros modelos.
A Anthropic promete melhorar os testes internos e a comunicação, incluindo uma maior transparência nas decisões de produto. O tempo o dirá.


















Sem comentários:
Enviar um comentário (problemas a comentar?)