2026/04/24

DeepSeek V4 volta a aproximar-se dos modelos AI "fechados"

A DeepSeek volta a complicar a vida às empresas AI, com os modelos V4 open-source a aproximarem-se dos modelos de topo da Anthropic, Google e OpenAI.

A DeepSeek lançou versões preview da nova família de modelos V4, trazendo dois modelos open-weight com suporte nativo para contextos até um milhão de tokens. A gama inclui o DeepSeek-V4-Pro e o mais eficiente V4-Flash, ambos baseados numa arquitectura Mixture-of-Experts. Os modelos já estão disponíveis via API, chatbot web e Hugging Face, permitindo também execução e fine-tuning local por parte de developers.

Um dos principais focos do V4 é a eficiência em larga escala. Apesar do suporte para contextos extremamente longos, os novos modelos reduzem significativamente os requisitos de processamento e memória face à geração anterior. Segundo a DeepSeek, o V4-Pro utiliza cerca de um quarto do poder computacional em cenários de 1M tokens, enquanto o V4-Flash é ainda mais eficiente. Estes ganhos resultam de um novo sistema de atenção que combina métodos e compressão para lidar melhor com grandes volumes de dados.
Ao nível do desempenho, o V4-Pro apresenta resultados fortes em programação, raciocínio e tarefas agent-based, competindo em alguns cenários com modelos proprietários. Destaca-se especialmente em benchmarks de programação e uso de ferramentas, além de melhorias em raciocínio matemático. Ainda assim, fica atrás dos modelos mais avançados em áreas como conhecimento geral e alguns fluxos de trabalho mais complexos.

A DeepSeek posiciona o V4 como um passo importante para modelos open-source, sobretudo pelo suporte nativo de contextos longos e pela maior eficiência de custos. Adicionalmente, tem a grande vantagem de ser um modelo que fica totalmente sob controlo dos utilizadores, não ficando sujeito a surpresas inesperadas como, subitamente e sem aviso, ver um modelo AI ficar "burro".

Sem comentários:

Enviar um comentário (problemas a comentar?)