A chamada "janela de contexto" nos modelos AI refere-se à quantidade de informação que eles conseguem processar nos pedidos efectuados. É um dos elementos críticos e essenciais para a sua "produtividade", e tem vindo a crescer ao longo dos anos com as sucessivas evoluções a que se tem assistido. Mas agora, temos um salto de gigante, e que ainda por cima nos chega de mais um modelo AI open-source: o MiniMax-01.
O MiniMax-01 torna-se na nova referência a este nível, permitindo um contexto de 4 milhões de tokens. Uma quantidade que é 32x superior à do CPT-4o da OpenAI, 20x superior à do Claude-3.5-Sonnet, e 2x superior à do Gemini 2.0, que tinha feito disso uma das suas grandes vantages. Quatro milhões de tokens é suficiente para que se possa atirar para lá todos os livros da saga Harry Potter... três vezes. E não se trata de apenas "dizer" que se pode fazer isso: o MiniMax-Text-01 teve um resultado de 100% nos testes de recuperação de informação, comprovando que realmente sabe "digerir" toda essa informação.
Além do avanço técnico e novas possibilidades que este modelo AI possibilita, serve também como forma de pressão sobre os demais modelos das empresas comerciais, que deixam de poder usar o argumento da janela de contexto como sendo a referência no sector; pelo menos, até conseguirem atingir um valor significativamente superior.Hailuo AI is proud to announce that MiniMax-01, with its groundbreaking Lightning Attention model architecture, ultra-long 4M-token context, and unbeatable cost-efficiency, is now live on our platform! MiniMax-01 is also open-source and available via API.
— Hailuo AI (MiniMax) (@Hailuo_AI) January 14, 2025
Try MiniMax-01 for… https://t.co/7JeQPVoTLt
Os curiosos podem experimentar o MiniMax-01 gratuitamente no site da Hailuo AI, ou através do Hugging Face, ou encontrar o projecto no GitHub.
Este ainda não fala português.
ResponderEliminar