2025/08/06

Open AI lança modelos AI open-source GPT-OSS

Depois de anos de espera, a OpenAI lança finalmente um modelo GPT gratuito e open-source, que até pode correr num portátil.

A OpenAI anunciou o lançamento do GPT-OSS, o seu primeiro modelo open-weight em mais de seis anos. Este novo modelo pode ser descarregado gratuitamente, personalizado e até executado localmente num portátil, abrindo novas possibilidades para programadores e empresas que procuram soluções AI mais acessíveis.

O GPT-OSS está disponível em duas versões: uma com 120 mil milhões de parâmetros (120B), que pode correr num único GPU H100 da Nvidia e tem desempenho semelhante ao o4-mini, e outra mais leve com 20 mil milhões de parâmetros (20B), equivalente ao o3-mini, que requer apenas um CPUY com 16GB de VRAM e pode ser executado num computador doméstico. Ambos os modelos estão a ser distribuídos através de plataformas como Hugging Face, Databricks, Azure, AWS, Windows AI Foundry, etc., sob a licença Apache 2.0, que permite alterações e uso comercial.
Este lançamento marca uma mudança de posição por parte da OpenAI. Durante anos, a empresa evitou lançar modelos abertos, citando preocupações de segurança. No entanto, com a crescente popularidade de modelos open-source, como os da DeepSeek, a OpenAI reconheceu que ficou "do lado errado da história" e decidiu reagir com o GPT-OSS. A OpenAI afirma que este é o seu modelo mais testado em termos de segurança, tendo sido avaliado por entidades externas para garantir que não representa riscos em áreas sensíveis, como cibersegurança ou armas biológicas. O GPT-OSS consegue realizar tarefas de raciocínio, navegar na internet, programar e operar agentes através das APIs da empresa.


Para quem quiser experimentar estes modelos, a Microsoft dá uma ajuda. O modelo gpt-oss-20b da OpenAI já está disponível no Windows AI Foundry, facilitando a execução local deste modelo gratuito open-source em PCs no Windows. Para correr o gpt-oss-20b, é necessário um computador com pelo menos 16 GB de VRAM, o que implica um GPU topo de gama. O modelo está especialmente optimizado para tarefas como execução de código e uso de ferramenta, e A Microsoft afinou o modelo para inferência local, prometendo desempenho melhorado em hardware "limitado". A empresa também deixou no ar que mais dispositivos poderão suportar este tipo de modelo em breve, incluindo talvez os novos Copilot Plus PCs, que têm recebido suporte para modelos AI locais nos últimos meses.

Sem comentários:

Enviar um comentário (problemas a comentar?)