A Anthropic acusa várias empresas de AI chinesas de copiarem o Claude usando milhares de contas falsas.
A Anthropic está a acusar três empresas chinesas - DeepSeek, Moonshot AI e MiniMax - de criarem mais de 24 mil contas falsas para extrair conhecimento do seu modelo Claude. Segundo a empresa, foram feitas mais de 16 milhões de interacções com o objectivo de melhorar os próprios modelos através de uma técnica conhecida como "distillation".
A distillation é um método comum para treinar versões mais pequenas e eficientes de modelos AI, mas pode também ser usada para replicar capacidades de concorrentes. A Anthropic diz que os ataques visaram funcionalidades diferenciadoras do Claude, como raciocínio agentic, uso de ferramentas, e programação. No caso da MiniMax, a empresa diz ter assistido a um uso substancial de tráfego para inspeccionar capacidades do modelo mais recente logo após o seu lançamento. Além da concorrência tecnológica, a Anthropic levanta preocupações de segurança nacional, e apela a uma resposta coordenada entre indústria, fornecedores cloud e decisores políticos.
Mas, isto surge numa altura em que a Anthropic tem muitas outras coisas em cima da mesa. Por um lado, a própria Anthropic enfrenta acusações de ter usado uma imensa quantidade de conteúdo "ilegal/roubado" para treinar os seus modelos. E, nos últimos dias, viu-se no centro de nova polémica ao recusar que os seus modelos AI fossem usados pelos serviços militares dos EUA para "matar pessoas" - algo que despoletou a tradicional resposta da administração Trump, que por um lado ameaçou classificar a empresa como hostil e de risco para a segurança nacional, e por outro lado ameaçou apoderar-se da sua tecnologia à força, invocando esses mesmos motivos de segurança nacional.
Entretanto, as atenções voltaram-se para a OpenAI, que começou por dizer que estava solidária com a Anthropic por se manter fiel aos seus princípios de não se usar AI para matar pessoas; para pouco depois dizer que afinal chegou a acordo com as ditas entidades para disponibilizar os seus modelos AI (dizendo que assegurou que os modelos AI nunca teriam decisão final para matar humanos, e que isso seria sempre responsabilidade de uma pessoa real).
Subscrever:
Enviar feedback (Atom)


















A Anthropic (como outras) acusam as chinesas de copiar...
ResponderEliminarEngraçado que a cópia/utilização dos dados dos utilizadores (para que aquilo funcione) já não lhes cause qualquer celeuma.