A Anthropic cortou o acesso da OpenAI aos modelos Claude, após o que diz ter sido "uso indevido" dos mesmos.
A Anthropic decidiu cortar o acesso da OpenAI aos seus modelos Claude, depois de descobrir que a rival estaria a usar essas ferramentas para testar e comparar o desempenho com os seus próprios modelos de inteligência artificial - numa altura em que se prepara para lançar o muito aguardado modelo GPT-5.
Segundo a empresa, a equipa técnica da OpenAI terá usado os modelos Claude para tarefas como programação, escrita e avaliação de segurança, algo que violaria os termos de serviço da Anthropic, ques proíbem expressamente o uso comercial dos seus modelos para "desenvolver produtos concorrentes". Ainda assim, a Anthropic afirma que continuará a permitir o acesso para fins de benchmark e avaliações de segurança, mantendo uma porta aberta para testes neutros. Por outro lado, a OpenAI diz que o uso que tem dado aos modelos da Anthropic se enquadram no uso normal e lamentou a decisão, sublinhando que a Anthropic continua a ter acesso à sua API, não tendo retaliado com um corte idêntico.
Parece inevitável que este tipo de coisas aconteça e se torne mais comum no futuro. Afinal, todos ficam felizes por promover que os seus modelos AI são "os melhores do mundo", até ao momento em que alguém lhes comece a dar uso que não lhes agrade de uma maneira ou de outra. Felizmente, neste sector altamente concorrencial, sempre que alguma empresa arriscar fechar uma porta, torna-se numa oportunidade para que outros ocupem o seu lugar - e não nos podemos esquecer que, da China, têm surgido excelentes modelos AI totalmente open-source, que ultrapassam por completo estas questões de acesso.
Subscrever:
Enviar feedback (Atom)


















Sem comentários:
Enviar um comentário (problemas a comentar?)