A equipe Qwen da Alibaba, parte da gigante chinesa de comércio eletrônico, expandiu sua série de modelos de linguagem de código aberto Qwen com o lançamento do QwQ-32B, um modelo de inferência com 32 bilhões de parâmetros, projetado para resolver problemas complexos com excelência por meio de aprendizado por reforço (RL). O modelo de pesos abertos foi lançado sob a licença Apache 2.0 no Hugging Face e ModelScope, permitindo seu uso gratuito para fins comerciais e de pesquisa, facilitando sua integração imediata em produtos e aplicativos.
O QwQ-32B foi introduzido em novembro de 2024 como uma resposta da Alibaba ao modelo o1 da OpenAI e se posiciona como uma alternativa comparável ao modelo DeepSeek-R1 de 671 bilhões de parâmetros do laboratório chinês DeepSeek, com exigências de capacidade de cálculo significativamente mais baixas. O modelo usa aprendizado por reforço de múltiplas etapas para melhorar o desempenho em raciocínio matemático, codificação e solução geral de problemas. Embora tenha um tamanho menor, obteve resultados semelhantes ao DeepSeek-R1. Benchmarkings mostram que o QwQ-32B pode competir efetivamente com o DeepSeek-R1, superando o o1-mini da OpenAI em tarefas como AIME (matemática) e LiveCodeBench (codificação), embora ainda tenha algum atraso em testes de programação onde o o1 mantém sua vantagem.
O QwQ-32B exige apenas 24 GB de vRAM de GPU, enquanto o DeepSeek-R1 precisa de mais de 1500 GB em 16 GPUs Nvidia A100, destacando a eficiência do RL e permitindo que o modelo funcione de forma fluida em hardware de consumo como a Nvidia H100 (80 GB). Seu design possui 64 camadas de transformação, RoPE, SwiGLU, RMNSNorm, GQA com 40 cabeçalhos de consulta e um comprimento de contexto de 131.072 tokens, sendo otimizado por pré-treinamento, ajuste supervisionado e um processo de RL de duas fases para matemática, codificação e funcionalidades gerais.
Para as empresas, o QwQ-32B oferece uma solução econômica e adaptável, útil em análise de dados, desenvolvimento de software e automação, sem restrições proprietárias. Embora a origem chinesa do modelo possa gerar preocupações sobre segurança ou viés, sua disponibilidade offline atenua essas questões, tornando-o uma alternativa viável ao DeepSeek-R1. Desde que o DeepSeek-R1 foi lançado em janeiro de 2024, ele tem liderado o tráfego de modelos de IA (segundo o SimilarWeb), enquanto o QwQ-32B, lançado em março de 2025, intensifica a competição de IA na China, sendo elogiado por especialistas como Vaibhav Srivastav e Yuchen Jin pela sua velocidade e eficiência.









