No passado já tivemos casos do ChatGPT, e outros assistentes AI, a darem respostas completamente sem nexo, mas isso sendo resultado de tentativas deliberadas (ou acidentais) que levam os modelos AI além dos seus limites. Desta vez, a coisa foi mais assutadora, pois essas respostas alucinadas foram dadas pelo ChatGPT de forma imediata a perguntas simples que deveriam ter sido respondidas sem dificuldades.
Até para as mais simples interacções, o ChatGPT podia responder com longos textos sem sentido, repetição de palavras, ou de aparentemente ficar preso num ciclo interminável de uma frase.
É o tipo de coisa que pode servir de munição para os críticos destes modelos AI, que dizem que não passam de um "auto-complete" mais avançado que apenas vai adicionando palavras sem ter real consciência do que está a dizer.the chatgptsubreddit is filled with people wondering why it started suddenly speaking Spanglish, threatened the user (I’m in the room with you right now, lmao) or started straight up babbling pic.twitter.com/4unzFVAFQd
— sean mcguire (@seanw_m) February 21, 2024
A OpenAI esteve em cima do acontecimento, rapidamente confirmando o mau funcionamento e dizendo que o mesmo estaria resolvido (sem dar detalhes sobre o que teria estado na sua origem), e que iria manter a monitorização (o que pode ser visto como uma certa insegurança sobre se realmente estaria resolvido ou não).
Entrando-se nas suposições, podemos interrogar-nos sobre se esta súbita alucinação poderia estar relacionada com alguma nova regra que estivessem a adicionar às directivas principais do ChatGPT, que regem o seu funcionamento global.
Sem comentários:
Enviar um comentário (problemas a comentar?)