A OpenAI veio constatar o óbvio, admitindo que os browsers AI poderão nunca ficar 100% a salvo de ataques "prompt injection".
A OpenAI reconheceu que os browsers AI poderão nunca ficar completamente imunes a ataques de prompt injection, mesmo com defesas cada vez mais avançadas. Numa análise, a empresa descreve que este tipo de ataque - onde instruções maliciosas são escondidas em páginas web ou emails para manipular agentes AI - é um problema estrutural, semelhante a esquemas de phishing ou engenharia social na web tradicional, que nunca poderá ser totalmente eliminado ou resolvido.
O alerta surge no contexto do ChatGPT Atlas, lançado em Outubro. Investigadores de segurança demonstraram rapidamente que textos escondidos em documentos ou emails conseguiam alterar o comportamento do browser. O problema não é exclusivo da OpenAI, com empresas como a Google e a Anthropic a reconhecerem que estes ataques dificilmente serão totalmente eliminados.
Para mitigar o risco, a OpenAI está a apostar num ciclo de defesa mais agressivo, incluindo um "atacante automático" AI treinado para agir como um hacker. Este sistema testa ataques em simulação, observa como o agente AI reage, ajusta a estratégia e repete o processo, permitindo descobrir falhas antes de serem exploradas no mundo real - uma táctica que, segundo a empresa, já revelou vectores de ataque que nunca tinham sido identificados por equipas humanas.
Ainda assim, há quem alerte que o risco de uso de browsers AI continua a ser demasiado elevado. A OpenAI continua a assegurar que o seu browser é seguro, pedindo confirmações manuais ao utilizador para acções sensíveis - uma garantia que acaba por não ser assim tão reconfortante quando, simultaneamente, a própria empresa admite os riscos dos ataques de prompt injection.
2025/12/23
Subscrever:
Enviar feedback (Atom)



















Sem comentários:
Enviar um comentário (problemas a comentar?)