A Microsoft enfrenta nova chuva de críticas devido à sua insistência em tornar o Windows num sistema operativo "AI".
Microsoft está a ser (justamente) criticada por lançar um alerta pouco tranquilizador sobre um dos seus próprios recursos de AI. Quase em simultâneo com a declaração do CEO da Microsoft AI a dizer que "não compreende porque motivo os utilizadores não estão entusiasmados com as funcionalidades AI no Windows", lança um aviso a dizer que o novo Copilot Actions, capaz de automatizar tarefas como organizar ficheiros, enviar emails ou marcar reuniões, pode ser explorado para infectar computadores ou roubar dados sensíveis! E isso reacendeu a discussão sobre o porquê de insistir em lançar funcionalidades AI com comportamento imprevisível antes de garantir que é segura.
O problema não é novo. O Copilot Actions assenta nas mesmas bases dos grandes modelos de linguagem (LLM) - como o Gemini, ChatGPT ou Claude - e isso significa herdar os mesmos defeitos. As alucinações continuam a existir, com respostas erradas ou absurdas, e os tão temidos prompt injections também. Nesse ataque, um hacker esconde instruções num email, documento ou website, e o modelo pode seguir essas ordens como se viessem do utilizador (algo também demonstrado repetidamente nas redes sociais, com assistentes AI de empresa a quem se pede para resolverem problemas ou dizerem coisas absurdas, que cumprem isso com todo o gosto). Mas os riscos aumentam drasticamente quando se trata de um assistente AI que tem acesso directo ao nosso computador.
A Microsoft reconheceu tudo isto numa nota técnica surpreendentemente directa, avisando que estes riscos são reais e que apenas utilizadores "experientes" devem activar o recurso - sem dizer o que significa "experiente" ou que medidas devem tomar. Um especialista de segurança comparou o Copilot Actions a "macros do Microsoft Office com super-poderes dos heróis da Marvel", lembrando que alertar os utilizadores nunca impediu que as macros continuassem a ser uma porta aberta para ataques durante décadas.
A MS tenta minimizar as críticas dizendo que o Copilot Actions está desligado de origem e que continuará assim durante a fase beta. Mas o risco é que a MS já tem longa tradição de activar por sua iniciativa funcionalidades experimentais que eram opcionais durante a fase de testes - nalguns casos sem dar qualquer opção para as desactivar ou remover. Outra das tácticas usadas é aquela que é bem conhecida da Tesla e do modo FSD: de que, em caso de qualquer acidente, a responsabilidade é do utilizador, pois tinha a obrigação de estar atento.
Subscrever:
Enviar feedback (Atom)



















Sem comentários:
Enviar um comentário (problemas a comentar?)