2023/05/12

Anthropic aumenta memória do seu modelo AI para 100 mil tokens

A Anthropic expandiu a capacidade do seu modelo AI para lidar com até 100 mil tokens, permitindo incluir todo o texto de um livro no campo da pergunta ou comando.

Apesar dos sistemas AI actuais já serem impressionantes, uma das suas limitações é o facto de serem modelos estáticos, que só sabem aquilo com que foram treinados ou que lhes é dito nos comandos e perguntas ao longo de uma sessão de utilização. Agora, a Anthropic dá um salto substancial nessa capacidade de memorizar novas coisas.

O seu modelo AI Claude começou por ter capacidade para lidar com apenas 9 mil tokens (aproximadamente equivalentes a sílabas), e que agora foram substancialmente expandidos para 100 mil tokens. Um valor que eclipsa o anterior recordista, o GPT-4, que podia lidar com até 32 mil tokens.

Isto não só permite que se "atirem" livros completos para este modelo AI (é dado o exemplo do The Great Gatsby, com 72 mil tokens), como também permite que se explorem sessões mais longas, durante horas ou até dias, sem perder a coerência e reduzindo o risco das chamadas "alucinações" dos sistemas AI.

É um recorde que não se deverá manter por muito tempo, tendo em conta a rápida evolução que se tem assistido neste sector. Mas mais importante do que ir aumentando a memória temporária que os modelos suportam durante uma única sessão, irá ser criar modelos que se possam ir auto-actualizando de forma contínua, de modo a que não regressem ao ponto zero de cada vez que se inicia a sessão.

Sem comentários:

Enviar um comentário (problemas a comentar?)