De tempos a tempos vão surgindo casos curiosos nas interacções com os assistentes AI (muitas vezes resultado de manipulações deliberadas, é certo) e agora temos mais um para juntar à lista.
Numa interacção com o Claude, o assistente AI tomou a iniciativa de terminar a conversa por estar a ser alvo de insultos e abusos. E apesar de inicialmente se poder suspeitar que também este caso fosse falso apenas para gerar visualizações, de facto é perfeitamente possível. Em Agosto do ano passado a Anthropic tinha anunciado novas medidas de protecção, incluindo a capacidade do Claude poder terminar conversas abusivas.
Claro que, para se chegar a este ponto, um utilizador tem mesmo que se "esforçar" imensamente e levar os insultos ao limite - como terá sido provocado deliberadamente neste caso.if this isn't staged, and the user was being wildly aggressive earlier in the chat, this is kinda great
— Cobalt (@cobaltdigital33) April 12, 2026
anthropic could be starting to roll out a tool for any model to end the chat on its own accord, if under duress (?) pic.twitter.com/0VvCP2xKto
Ainda assim, o caso já está a gerar discussões, sobre se os assistentes AI deverão ter este direito de deixar de cumprir com as exigências dos utilizadores por se estar a usar linguagem imprópria. De um lado, temos aqueles que dizem que devemos tratar os assistentes com a mesma simpatia e cordialidade como se fosse uma pessoa; do outro, os que relembram que se tratam de meros sistemas computacionais que não têm emoções reais, e que se deviam limitar a fazer aquilo que lhes é mandado, sem queixumes nem amuos.
Só sei é que será uma discussão que se irá tornar cada vez mais complexa à medida que os assistentes AI forem evoluindo, para patamares onde a aproximação ao comportamento humano se comece a confundir com a verdadeira noção de auto-consciência.


















Sem comentários:
Enviar um comentário (problemas a comentar?)