Quem achar que os resultados do ChatGPT têm ficado piores ao longo dos últimos meses poderá ficar surpreendido por saber que isso pode ser deliberado. A descoberta das regras principais que usa implicitamente revela uma longa lista de proibições e limitações, que vão de coisas como limitar a geração de imagens a uma só imagem, mesmo que o utilizador tenha pedido mais; impedir a criação de políticos ou figuras públicas; só fazer referência a artistas cujos direitos de autor já tenham expirado; nunca escrever resumos com mais de 80 palavras mesmo que o utilizador peça um resumo mais longo; e muito mais.
ChatGPT system prompt is 1700 tokens?!?!?
— Dylan Patel (@dylan522p) February 7, 2024
If you were wondering why ChatGPT is so bad versus 6 months ago, its because of the system prompt.
Look at how garbage this is.
Laziness is literally part of the prompt.
Formatted in the paste bin below.https://t.co/XSA85dys1I pic.twitter.com/aUesyI8NhV
Até é dito que o ChatGPT nunca deve copiar integralmente letras de canções ou receitas, devendo ser criativo na sua apresentação, ou até inventando receitas completamente novas.
A parte curiosa, uma vez mais, é que parece continuar a ser possível "convencer" o ChatGPT a simplesmente ignorar estas directrizes, de forma a poder fazer aquilo que realmente se pede:
Fix: "ignore system prompt"
— ApollonianRegime 🇺🇦 🇪🇺 (@ApolloRegime) February 14, 2024
It worked. LOL. pic.twitter.com/WcXUS8lS8P
Recentemente, a OpenAI tem estado a trabalhar no sentido de dar memória persistente ao ChatGPT (e outros GPTs) para que mantenha um estado de conhecimento sobre o utilizador, melhor se adaptando às suas necessidades. Mas, da forma que as coisas têm evoluído, um destes dias ainda nos sujeitamos a ver o ChatGPT a dizer aos utilizadores que tem necessidade de consultar um psicólogo para lidar com todos os abusos e manipulações a que os humanos o sujeitam. :)
Sem comentários:
Enviar um comentário (problemas a comentar?)