A Microsoft confirmou um bug que levou o Microsoft 365 Copilot a resumir emails confidenciais a que não deveria ter acesso.
Numa altura em que o Copilot dispensaria toda a publicidade negativa, a Microsoft revelou que um bug no Microsoft 365 Copilot permitiu ao assistente AI resumir emails marcados como confidenciais, ignorando políticas de Data Loss Prevention (DLP). O problema foi detectado a 21 de Janeiro (identificado como CW1226324) e afectava a funcionalidade de chat no separador "work" do Copilot.
O bug fazia com que o Copilot processasse mensagens armazenadas nas pastas "Enviados" e "Rascunhos" mesmo quando estas tinham etiquetas destinadas a restringir o acesso por ferramentas automatizadas. Na prática, o sistema conseguia gerar resumos de conteúdos a que não deveria aceder. A Microsoft indicou que o problema resultou de um erro de código e que começou a disponibilizar uma correcção no início de Fevereiro, estando a monitorizar a situação e a contactar alguns utilizadores afectados para confirmar que o comportamento foi corrigido. Apesar do incidente, garante que não houve acesso não autorizado a informação e que o Copilot apenas apresentou conteúdos que o próprio utilizador já tinha permissão para ver.
Seja como for, demonstra que não são apenas os projectos open-source (como o OpenClaw) que levantam preocupações a nível da segurança das tecnologias AI. Como se pode ver, o mesmo pode acontecer até com produtos de empresas reputadas destinados a ambiente empresarial. E, se não se pode ter qualquer garantia de que estas ferramentas AI não acedem aos conteúdos que não deviam aceder, cai por terra todo o pressuposto de que se pode confiar naquilo que é "assegurado" aos utilizadores.
Subscrever:
Enviar feedback (Atom)


















Sem comentários:
Enviar um comentário (problemas a comentar?)