Alibaba lança Qwen3-Coder-Next para competir com OpenAI e Anthropic

Alibaba lança Qwen3-Coder-Next para rivalizar com OpenAI e Anthropic na IA para programação

A corrida global por ferramentas de inteligência artificial voltadas à programação acaba de ganhar um novo e poderoso competidor. A Alibaba anunciou o lançamento do Qwen3-Coder-Next, um modelo de linguagem de pesos abertos, focado em agentes de programação e uso local, que promete rivalizar diretamente com soluções da OpenAI e da Anthropic.

Apresentado oficialmente entre 2 e 3 de fevereiro de 2026, sob a licença permissiva Apache 2.0, o lançamento sinaliza uma escalada clara na disputa por desenvolvedores. Coincidentemente (ou estrategicamente), ele ocorreu na mesma semana em que a OpenAI lançou o aplicativo desktop do Codex para macOS, evidenciando o momento extremamente competitivo do setor de IA para desenvolvimento de software.

Um modelo pensado para agentes, não apenas para autocompletar código

Diferentemente de modelos tradicionais de geração de código, o Qwen3-Coder-Next foi projetado desde o início para cenários agênticos — isto é, para atuar como parte de sistemas autônomos capazes de planejar, executar, testar e corrigir código de forma contínua.

Segundo a Alibaba, o modelo consegue igualar o desempenho de sistemas com 10 a 20 vezes mais parâmetros ativos, algo particularmente relevante em um momento em que custo, eficiência energética e execução local se tornaram prioridades estratégicas para empresas e desenvolvedores avançados.

Arquitetura ultra-esparsa: muito poder com menos custo

O grande diferencial técnico do Qwen3-Coder-Next está em sua arquitetura Mixture-of-Experts (MoE) ultra-esparsa. Embora o modelo tenha 80 bilhões de parâmetros totais, apenas 3 bilhões são ativados por token, reduzindo drasticamente o custo computacional sem sacrificar a capacidade de raciocínio.

Em termos estruturais, o modelo utiliza:

  • 48 camadas híbridas
  • Blocos de Gated DeltaNet
  • Gated Attention
  • Arquitetura MoE com 512 especialistas no total
  • Apenas 10 especialistas ativados por token, além de um especialista compartilhado

Essa combinação permite escalar inteligência sem escalar proporcionalmente o consumo de recursos — um dos grandes desafios da IA moderna.

Janela de contexto gigantesca: foco em bases de código reais

Outro ponto que chama atenção é a janela de contexto de 256.000 tokens, colocando o Qwen3-Coder-Next entre os modelos mais preparados para lidar com bases de código extensas.

Na prática, isso significa que desenvolvedores podem:

  • Analisar projetos grandes em uma única sessão
  • Manter múltiplos arquivos e dependências em contexto
  • Trabalhar com refatorações complexas sem fragmentação

Esse recurso é especialmente valioso para agentes de programação, que precisam manter visão global do projeto para tomar decisões coerentes.

Execução local: requisitos e quantizações

Pensando no uso local e corporativo, a Alibaba trabalhou em conjunto com a Unsloth para disponibilizar quantizações no formato GGUF, facilitando a implantação fora da nuvem.

As opções incluem:

  • Versão 4 bits: ~46 GB de RAM
  • Versão 8 bits: ~85 GB de RAM

Embora os requisitos ainda sejam elevados, eles são considerados competitivos para um modelo com esse nível de capacidade, especialmente quando comparados a alternativas proprietárias que exigem execução remota e custos recorrentes.

Desempenho em benchmarks: números que impressionam

Nos testes práticos, o Qwen3-Coder-Next apresentou resultados sólidos, mesmo quando comparado a modelos significativamente maiores.

No SWE-Bench Verified, usando o framework SWE-Agent:

  • Qwen3-Coder-Next: 70,6%
  • DeepSeek-V3.2: 70,2%
  • GLM-4.7: 74,2%

Já no SWE-Bench Pro, mais exigente:

  • Qwen3-Coder-Next: 44,3%
  • DeepSeek-V3.2: 40,9%
  • GLM-4.7: 40,6%

Esses números reforçam a proposta central do modelo: eficiência sem abrir mão de performance real em tarefas complexas de engenharia de software.

Treinamento agêntico em larga escala

A Alibaba atribui grande parte do desempenho do modelo a uma abordagem chamada de “treinamento agêntico em larga escala”. Em vez de apenas aprender a completar código, o Qwen3-Coder-Next foi treinado com cerca de 800 mil tarefas de codificação verificáveis, todas associadas a ambientes executáveis reais.

Esse processo envolveu:

  • Planejamento de tarefas
  • Chamada de ferramentas
  • Execução de testes
  • Recuperação de falhas em tempo de execução

Tudo isso usando aprendizado por reforço, aproximando o comportamento do modelo ao de um engenheiro de software júnior ou pleno, em vez de um simples autocompletar inteligente.

Um mercado cada vez mais disputado

O lançamento acontece em um contexto de competição intensa. Além do Codex da OpenAI, a Claude Code vem ganhando enorme tração. Segundo dados divulgados pela Reuters, o Claude Code teria alcançado US$ 1 bilhão em receita anualizada em apenas seis meses, evidenciando o enorme valor comercial desse mercado.

O Qwen3-Coder-Next foi projetado para não ficar isolado, oferecendo integração com ferramentas como:

  • Claude Code
  • Qwen Code
  • Cline

Além disso, o modelo suporta APIs compatíveis com OpenAI, via SGLang e vLLM, facilitando a adoção em infraestruturas já existentes.

Conclusão: open source entra de vez na briga

Com o Qwen3-Coder-Next, a Alibaba deixa claro que o open source de alto desempenho não está mais apenas “correndo atrás” das soluções proprietárias. Pelo contrário: começa a ditar o ritmo em eficiência, flexibilidade e autonomia.

Para desenvolvedores e empresas, o movimento amplia as opções:

  • Mais controle sobre dados
  • Execução local ou híbrida
  • Menor dependência de fornecedores únicos

A disputa entre Alibaba, OpenAI e Anthropic mostra que o futuro da programação assistida por IA será agêntico, paralelo e altamente competitivo. E, pela primeira vez, modelos abertos parecem realmente prontos para disputar esse espaço em pé de igualdade.

Cadastre-se na nossa newsletter

Inscreva-se na newsletter para ver novas fotos, dicas e postagens no blog.​

Subscribe to My Newsletter

Subscribe to my weekly newsletter. I don’t send any spam email ever!