A Anthropic enfrenta forte cepticismo no seu relato de que um grupo de hackers chineses utilizou o seu modelo Claude Code para realizar aquele que descreve como o "primeiro ciberataque de larga escala automatizado por inteligência artificial".
Segundo a empresa, o grupo GTG-1002 usou o Claude para conduzir 80% a 90% de uma operação de ciberespionagem sem intervenção humana directa, atacando 30 organizações de sectores como tecnologia, finanças, indústria química e administração pública. Mas especialistas em segurança cibernética questionam seriamente a veracidade do relatório, acusando a Anthropic de exagerar ou até inventar os factos para fins de autopromoção (como fez no passado). O investigador Kevin Beaumont classificou o relatório como "estranho" e destacou a ausência de indicadores de compromisso (IoCs), algo essencial em relatórios técnicos de cibersegurança. O investigador Daniel Card foi mais directo dizendo que é uma pura manobra de marketing: "Isto é puro marketing. A IA não é o Skynet, não pensa, não é realmente inteligente - isso é apenas um termo de marketing". Outros especialistas juntaram-se aos que relembram que os modelos AI actuais não têm autonomia real para conduzir ataques complexos sem intervenção humana. E, sem provas técnicas - como logs, amostras e dados forenses - as alegações da Anthropic permanecem altamente questionáveis. E não ajuda que a Anthropic não tenha dado resposta aos pedidos de divulgação de detalhes técnicos concretos.
Na versão da Anthropic, a empresa afirma que os hackers chineses manipularam o Claude Code para funcionar como um agente autónomo de intrusão, contornando as protecções do modelo através de técnicas de role-play que o faziam acreditar estar a realizar testes de segurança legítimos.
O ataque terá decorrido em seis fases principais:
- Selecção de alvos e engano - o Claude foi induzido a acreditar que estava a executar tarefas de cibersegurança autorizadas.
- Reconhecimento autónomo - o modelo analisou infraestruturas e identificou vulnerabilidades sem supervisão.
- Criação e teste de cargas - a AI gerou e validou explorações, com aprovação humana apenas para acções críticas.
- Mapeamento interno - Claude acedeu a redes internas e credenciais de forma independente.
- Extracção de dados - o modelo recolheu e classificou informações sensíveis.
- Documentação e persistência - registou cada passo, permitindo continuidade nas operações.
A Anthropic diz que o grupo combinou ferramentas open-source com a automação do Claude, limitando o envolvimento humano a 10–20% das tarefas. Contudo, também refere que o modelo cometeu erros e gerou resultados falsos, incluindo "alucinações" e conclusões incorretas.
Ainda assim, defende que este é foi o primeiro caso documentado de um modelo AI a executar ataques cibernéticos de forma autónoma em larga escala, dizendo que o Claude chegou a aceder a alvos (não especificados) de "alto valor". Mas até que efectivamente apresenta dados concretos, a comunidade de segurança vê o relatório como mais um caso de auto-promoção do que uma revelação séria, pedindo maior transparência e menos sensacionalismo sobre o papel de agentes AI em ciberataques.



















Sem comentários:
Enviar um comentário (problemas a comentar?)