2024/08/05

OpenAI não adiciona "watermark" aos textos do ChatGPT para utilizadores não serem detectados

A OpenAI não quer penalizar os seus utilizadores e clientes, e não prevê adicionar um sistema de watermarking que denuncie textos criados pelo ChatGPT.

Crie-se uma imagem num modelo AI, e é normal que inclua as chamadas "watermarks" que indicam que se trata de uma imagem gerada por uma ferramenta AI. Mas, para os textos do ChatGPT, a OpenAI está reticente em fazer o mesmo apesar de ter trabalho num sistema de watermarking para texto.

A questão é que tal sistema permitiria facilmente detectar (teoricamente) todos os textos gerados pelo ChatGPT e demais modelos GPT que disponibiliza, penalizando os próprios utilizadores ao ponto desses textos poderem descartá-los automaticamente de coisas como ofertas de emprego, trabalhos escolares, etc. E isso aconteceria tanto nos casos de utilizadores que fazem um uso abusivo destas ferramentas, como de todos os outros que as usam de forma legítima e consciente, para melhorarem ou complementarem o seu trabalho, ou para fazerem traduções do mesmo.

Claro que existem muitas outras formas de se identificarem estas situações, da mesma forma que um professor facilmente consegue detectar se um determinado aluno realmente fez determinado trabalho "milagroso". Recentemente, um professor adicionou instruções escondidas (em letras pequenas "invisíveis") num trabalho, que dava instruções para que um eventual assistente AI adicionasse referências ao Batman. Os alunos que se limitaram a fazer copy paste do enunciado para um assistente como o ChatGPT, e copy paste do resultado, foram rapidamente denunciados.

Mudam-se os tempos, mudam-se as tecnologias, mas a natureza humana continua a ser a mesma, e para cada pessoa que se ache "esperta", há invariavelmente outra mais esperta do que ela.

Sem comentários:

Enviar um comentário (problemas a comentar?)