2026/04/14

Claude termina conversa após insultos e abusos

Um utilizador partilhou um caso curioso, em que o Claude terminou a conversa por estar a ser alvo de abusos continuados.

De tempos a tempos vão surgindo casos curiosos nas interacções com os assistentes AI (muitas vezes resultado de manipulações deliberadas, é certo) e agora temos mais um para juntar à lista.

Numa interacção com o Claude, o assistente AI tomou a iniciativa de terminar a conversa por estar a ser alvo de insultos e abusos. E apesar de inicialmente se poder suspeitar que também este caso fosse falso apenas para gerar visualizações, de facto é perfeitamente possível. Em Agosto do ano passado a Anthropic tinha anunciado novas medidas de protecção, incluindo a capacidade do Claude poder terminar conversas abusivas.
Claro que, para se chegar a este ponto, um utilizador tem mesmo que se "esforçar" imensamente e levar os insultos ao limite - como terá sido provocado deliberadamente neste caso.

Ainda assim, o caso já está a gerar discussões, sobre se os assistentes AI deverão ter este direito de deixar de cumprir com as exigências dos utilizadores por se estar a usar linguagem imprópria. De um lado, temos aqueles que dizem que devemos tratar os assistentes com a mesma simpatia e cordialidade como se fosse uma pessoa; do outro, os que relembram que se tratam de meros sistemas computacionais que não têm emoções reais, e que se deviam limitar a fazer aquilo que lhes é mandado, sem queixumes nem amuos.

Só sei é que será uma discussão que se irá tornar cada vez mais complexa à medida que os assistentes AI forem evoluindo, para patamares onde a aproximação ao comportamento humano se comece a confundir com a verdadeira noção de auto-consciência.

Sem comentários:

Enviar um comentário (problemas a comentar?)