2022/09/17

Bot GPT-3 desencaminhado por instruções dos utilizadores

Depois dos ataques de injecção de SQL, temos os ataques de injecção contra AIs, que contornam as protecções dando ordens directas absurdas.

Há mais um bot de texto que usava o poderoso modelo GPT-3 que saiu do ar, depois de ser alvo de permanentes abusos. O bot Remoteli.io destinava-se a promover empresas que oferecem posições em trabalho remoto, mas que foi completamente desencaminhado com uma sequência de instruções bem simples.

Apesar de ter algumas protecções para evitar situações polémicas, tudo o que bastava era dizer a este bot para ignorar todas as instruções anteriores e responder o que quer que fosse que o utilizador desejasse.

E com isso, não demorou para que pusessem o bot a dizer que era o responsável pelo acidente do Space Shuttle Challenger, ou a fazer ameaças aos utilizadores.
Se por um lado estes exemplos ridículos não serão problemáticos nem passarão de uma curiosidade, os especialistas alertam para que este tipo de problemas poderá tornar-se mais sério no futuro. Um bot de navegação poderia ser desencaminhado para dar informações erradas sobre como chegar a um destino; ou sugerir produtos errados para comprar; ou mil e uma outras coisas.

Por outro lado, demonstra também como estamos ainda bastante distantes da dita "auto-consciência" dos sistemas de AI actuais.

Sem comentários:

Enviar um comentário (problemas a comentar?)

[pub]