A OpenAI disse ter corrigido parcialmente uma falha que permite que um atacante possa roubar dados a uma vítima que interage com o ChatGPT ou outros assistentes idênticos.
Para tirar partido desta falha, a vítima tem que ser direccionada para interagir com uma versão maliciosa de um assistente (e nesse caso, já estaria em risco de muitas outras maneiras) ou do atacante conseguir convencer a vítima a introduzir uma regra no assistente. O objectivo é fazer com que o assistente AI passe a apresentar imagens de letras que são carregadas a partir de um site sob controlo do atacante, e que assim passa a ter informação detalhada sobre todas as interacções que ocorrerem.
A OpenAI diz ter efectuado algumas correcções para impedir este tipo de ataque, com um passo de validação antes de apresentar imagens de domínios externos, mas que é possível que o mesmo possa continuar a ser feito, uma vez que se trata de algo que pode ser uma funcionalidade pretendida pelos utilizadores.
Por agora a correcção apenas parece ter sido aplicada no ChatGPT na web (e aparentemente na versão Android), mas a versão iOS continua a estar vulnerável a este ataque.
Subscrever:
Enviar feedback (Atom)
Sem comentários:
Enviar um comentário (problemas a comentar?)