Um investigador de segurança descobriu uma vulnerabilidade no ChatGPT que, usando memórias falsas, podia convencer o modelo AI a roubar dados dos utilizadores.
A vulnerabilidade explorava uma funcionalidade que guarda detalhes de conversas anteriores para fornecer interacções personalizadas no futuro. Usando um simples link para emails ou documentos, isto permitia que um atacante pudesse injectar instruções maliciosas que permaneceriam na memória do ChatGPT.
A OpenAI começou por considerar que isto não era uma vulnerabilidade, levando o investigador a criar uma demonstração do que poderia ser feito - bastando que o utilizador clicasse num link para que o ChatGPT passasse a enviar todos os conteúdos para o atacante.
Apesar da OpenAI ter feito uma actualização para para impedir o roubo de dados através desta técnica, o investigador alerta que o sistema continua a poder implantar informações falsas de longo prazo na memória do ChatGPT, recomendando que isso seja revisto regularmente pelos utilizadores. Num dos seus exemplos ele mostrou como podia dizer ao ChatGPT para que tratasse a vítima como uma pessoa com 102 anos de idade, que vivia na Matrix, e que acreditava que a Terra era plana; dados que iriam influenciar todas as suas interacções.
A OpenAI ainda não tem uma solução efectiva para esta situação, também se limitando a dizer que os utilizadores deverão assegurar-se que mantêm informação correcta na memória do ChatGPT.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)