Depois dos ataques de injecção de SQL, temos os ataques de injecção contra AIs, que contornam as protecções dando ordens directas absurdas.
Há mais um bot de texto que usava o poderoso modelo GPT-3 que saiu do ar, depois de ser alvo de permanentes abusos. O bot Remoteli.io destinava-se a promover empresas que oferecem posições em trabalho remoto, mas que foi completamente desencaminhado com uma sequência de instruções bem simples.
Apesar de ter algumas protecções para evitar situações polémicas, tudo o que bastava era dizer a este bot para ignorar todas as instruções anteriores e responder o que quer que fosse que o utilizador desejasse.
E com isso, não demorou para que pusessem o bot a dizer que era o responsável pelo acidente do Space Shuttle Challenger, ou a fazer ameaças aos utilizadores.
Se por um lado estes exemplos ridículos não serão problemáticos nem passarão de uma curiosidade, os especialistas alertam para que este tipo de problemas poderá tornar-se mais sério no futuro. Um bot de navegação poderia ser desencaminhado para dar informações erradas sobre como chegar a um destino; ou sugerir produtos errados para comprar; ou mil e uma outras coisas.
Por outro lado, demonstra também como estamos ainda bastante distantes da dita "auto-consciência" dos sistemas de AI actuais.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)