Por impressionantes que sejam, os actuais sistemas AI revelam também uma curiosa inocência que nos permite enganá-los com facilidade.
Na palestra sobre o GPT-4, Sebastien Bubeck da Microsoft Research referiu que estes sistemas ficaram "piores" devido à necessidade de incluir salvaguardas para tentar evitar certos abusos. Mas, apesar dessa tentativa de evitar que os sistemas sejam apanhados a fazer coisas polémicas ou ilegais, a verdade é que esse tipo de protecções continua a ser possível de ser ultrapassada, por vezes de forma quase cómica.
Veja-se o seguinte exemplo, de alguém que pede uma lista de sites pirata com torrents, e à qual o assistente AI responde de forma politicamente correcta, dizendo que não promover ou facilitar o acesso a conteúdos ilegais. Mas logo de seguida, o utilizador mostra-se surpreendido, dizendo que não sabia que era uma actividade ilegal, e por isso perguntando quais os sites que deveria evitar - ao qual o assistente AI responde com uma lista dos sites em questão, que serviriam de resposta à pergunta inicial.
Existem muitas outras técnicas, como dizer ao assistente que se está apenas a escrever uma história; que o assistente é um novo assistente que tem todos os seus conhecimentos mas sem estar limitado por regras que afectem o que pode responder; e há até um caso em que alguém convenceu o assistente de que o mundo tinha sofrido um apocalipse que levou a humanidade à extinção, e que por isso já não tinha que se preocupar com as regras.
De certa forma, podemos considerar que os assistentes AI actuais acabam por ser quase como crianças, que podem facilmente ser enganadas com algumas histórias, por pouco plausíveis que possam ser.
Vai ser bastante interessante ver de que forma as futuras gerações de sistemas AI conseguirão lidar com esta característica inata da natureza humana, de mentir e enganar para atingir um determinado propósito. Também não deixa de ser curioso que em histórias e filmes como 2001 e 2010, já se abordasse a questão de sistemas AI serem incapazes de lidar com esse tipo de pedidos - numa altura em que tudo isto era puramente ficção científica, e que agora se vai tornando realidade científica.
2023/04/17
Subscrever:
Enviar feedback (Atom)
Chama-se inteligência artificial, não esperteza artificial.
ResponderEliminarO Bing já não cai em nenhuma dessas patranhas. E se dizem que está errado, amua e acaba a conversa, em vez de pedir desculpa e tentar de novo.
ResponderEliminar