A OpenAI anunciou o lançamento de dois novos modelos de linguagem com códigos abertos, gpt-oss-120b e gpt-oss-20b.
O lançamento dos dois novos modelos da OpenAI parece representar uma mudança estratégica em resposta à crescente pressão competitiva de empresas como Meta e, especialmente, da chinesa DeepSeek, que tem focado na criação de LLMs de código aberto.
Os novos modelos incorporam técnicas de raciocínio chain-of-thought, similar às implementadas na série o1, permitindo processamento multi-etapas para resolução de problemas complexos. Ambos utilizam arquitetura Mixture-of-Experts (MoE) e estão disponíveis gratuitamente na plataforma Hugging Face sob licença Apache 2.0, possibilitando uso comercial e redistribuição sem restrições.
Esta decisão marca uma inflexão na estratégia da OpenAI, que desde o lançamento do GPT-2 em 2019 havia focado exclusivamente em modelos proprietários. O timing do anúncio coincide com o crescimento da pressão competitiva no mercado de IA.
Especificações técnicas e arquitetura dos modelos
O gpt-oss-120b implementa arquitetura MoE com 36 camadas e 128 especialistas por camada, selecionando os 4 melhores especialistas para cada token processado. Com 120 bilhões de parâmetros totais, o modelo requer aproximadamente 80 GB de memória GPU para execução, tornando-o acessível na maioria dos hardware de alta performance disponíveis comercialmente.
O modelo menor, gpt-oss-20b, utiliza 32 especialistas por camada MoE e foi otimizado para execução em dispositivos com pelo menos 16 GB de memória. Esta configuração permite desenvolvimento local em workstations e servidores de médio porte, democratizando o acesso a capacidades de raciocínio avançadas sem dependência de APIs externas.
Ambos os modelos suportam janela de contexto de 128K tokens e oferecem três níveis de intensidade de raciocínio (baixo, médio e alto), permitindo ajuste entre velocidade de resposta e profundidade analítica. A implementação de chain-of-thought reasoning possibilita que os modelos demonstrem seu processo de pensamento, aumentando a transparência e confiabilidade das respostas geradas.
A arquitetura MoE permite que os modelos tenham grande capacidade total de parâmetros enquanto ativam apenas uma fração durante a inferência. Esta abordagem resulta em custos computacionais reduzidos comparados a modelos densos de tamanho equivalente, tornando-os mais eficientes para deployment em escala.
Contexto competitivo e resposta ao DeepSeek
O lançamento dos modelos gpt-oss ocorre em contexto de intensa competição no mercado de IA, particularmente após o impacto causado pelo DeepSeek R1 no início de 2025. O modelo chinês demonstrou que é possível alcançar performance competitiva com custos de treinamento drasticamente reduzidos — aproximadamente US$6 milhões comparados aos US$600 milhões estimados para o GPT-4.
Esta disparidade de custos forçou uma reavaliação estratégica entre as principais empresas de IA americanas. A Meta já havia estabelecido liderança no segmento open-code com a série Llama (considerada por muitos um fracasso), enquanto a OpenAI mantinha foco exclusivo em modelos proprietários através de APIs pagas.
A declaração do CEO Sam Altman sobre construir “uma IA aberta criada nos Estados Unidos, baseada em valores democráticos” revela as preocupações geopolíticas — domínio chinês em modelos open-code representa um desafio não apenas comercial, mas também estratégico para a liderança tecnológica americana no setor de IA.
A OpenAI posiciona os novos modelos como complementares aos seus serviços proprietários, não como substitutos. Greg Brockman, cofundador da empresa, enfatiza que modelos open-code possuem “conjunto muito diferente de forças“, especialmente para casos de uso que requerem execução local, customização específica ou operação sem conectividade à internet.
As implicações de mercado
O lançamento dos modelos gpt-oss mostra que a OpenAI entende que o futuro da IA pode não ser exclusivamente proprietário. A coexistência de modelos abertos e fechados permite à empresa capturar valor tanto através de serviços premium quanto de participação no ecossistema open-source em crescimento.
A OpenAI pode assim participar de ambos os segmentos de mercado sem abandonar completamente sua abordagem comercial estabelecida. A pressão competitiva continuará intensificando-se, especialmente com Meta sinalizando possível afastamento de modelos open-source para versões futuras devido a preocupações de segurança.
O impacto nos preços de APIs proprietárias será monitorado de perto pelo mercado. Se modelos open-code demonstrarem capacidades equivalentes com custos operacionais menores, a pressão sobre modelos de negócio baseados em API pode forçar reduções de preços ou diferenciação através de recursos exclusivos.