DeepSeek-V4 é lançado com contexto de 1M e capacidades agentivas equivalentes aos modelos fechados globais de ponta
2026-04-24 16:58
Favoritos

De acordo com pt.wedoany.com-A DeepSeek lançou oficialmente, em 24 de abril, a nova série de modelos DeepSeek-V4 Preview e, simultaneamente, disponibilizou os pesos dos modelos como código aberto em plataformas como o Hugging Face. Em comunicado oficial na conta do WeChat, a DeepSeek confirmou que a capacidade de processamento de contexto de 1 milhão de Tokens se torna, a partir de hoje, a configuração padrão unificada para todos os serviços oficiais da DeepSeek, abrangendo API, chat no site oficial e aplicativo móvel. Nesta série V4, pela primeira vez, ela é dividida em duas versões: o DeepSeek-V4-Pro tem foco em desempenho máximo, destinado a tarefas agentivas complexas, análise de documentos longos e cenários de raciocínio profundo; já o DeepSeek-V4-Flash prioriza eficiência econômica, atendendo a cenários de alta frequência com menos parâmetros e menor latência de inferência.

Um documento técnico aprofundado divulgado oficialmente revela as principais inovações da série V4. O modelo adota um novo mecanismo de atenção híbrida, introduzindo módulos de compressão aprendíveis na dimensão dos Tokens, combinados com a tecnologia de atenção esparsa DSA para podar dinamicamente Tokens não críticos em sequências longas. Dados de testes reais mostram que, em uma configuração de contexto de 1 milhão de Tokens, as operações de ponto flutuante por Token de inferência do V4-Pro são apenas 27% das do DeepSeek-V3.2, e o consumo de memória do KV Cache é reduzido para 10% do V3.2. Esse avanço em eficiência torna o custo de inferência em contexto de milhões de níveis praticável pela primeira vez, permitindo que desenvolvedores não precisem arcar com custos de atualização de hardware várias vezes maiores para processar textos longos.

Em termos de arquitetura de modelo, o DeepSeek-V4-Pro alcançou avanços em múltiplas dimensões em avaliações especializadas de código e agentes. Na referência Agentic Coding, que mede a capacidade de programação de agentes, o V4-Pro atingiu o melhor nível atual entre modelos de código aberto. Em ambientes de teste de engenharia de software complexos construídos internamente, a qualidade de entrega do modelo se aproxima de forma estável do modo não reflexivo do Claude Opus 4.6, com uma fluidez de uso superior ao Claude Sonnet 4.5. A equipe de pesquisa da DeepSeek também construiu um conjunto de avaliação privado de agentes, abrangendo dimensões como cumprimento de instruções ultralongas, chamadas de ferramentas em múltiplas rodadas e reestruturação entre arquivos, onde o V4-Pro ficou em primeiro lugar entre modelos de código aberto nos dois indicadores principais: taxa de conclusão de tarefas e precisão de instruções.

Dados de avaliação de terceiros validam ainda mais a força abrangente do V4-Pro. Nas referências de raciocínio matemático AIME 2025 e na avaliação de código em nível de competição LiveCodeBench, o desempenho do V4-Pro corresponde diretamente a modelos fechados de ponta globais, como o GPT-5.4, ampliando significativamente a distância de outros modelos de código aberto concorrentes. Em avaliações de conhecimento geral e capacidade profissional, como o teste de múltipla escolha de alta dificuldade MMLU-Pro, que cobre 12 áreas profissionais, o V4-Pro melhorou em mais de 8 pontos percentuais em relação à geração anterior; na avaliação de raciocínio científico em nível de doutorado GPQA Diamond, ele também lidera amplamente os modelos de código aberto subsequentes, ficando apenas um pouco atrás do modelo fechado mais forte atualmente. Esses resultados indicam que modelos de grande escala desenvolvidos internamente na China alcançaram, pela primeira vez, um patamar equivalente em inteligência geral aos sistemas fechados mais avançados globalmente.

No aspecto de ecossistema computacional, a série DeepSeek-V4 já recebeu adaptação e suporte completos da série de produtos Huawei Ascend Super-nodes, com ambas as equipes realizando otimização de operadores de baixo nível nas etapas de treinamento e implantação de inferência dos modelos. A DeepSeek estabeleceu claramente a Ascend como seu principal parceiro de poder computacional. Usuários corporativos podem implantar diretamente a série V4 por meio da infraestrutura de IA da Huawei, realizando tarefas de produção completas, desde a micro-ajustagem até a inferência, sem depender de GPUs importadas.

O preço da API segue a estratégia tradicional de custo-benefício extremo da DeepSeek. O preço de saída da versão Flash é de 2 yuans por milhão de Tokens, enquanto o da versão Pro é de 24 yuans por milhão de Tokens, sem cobranças adicionais para janelas de contexto de 1 milhão. A DeepSeek também anunciou que o site oficial deepseek.com e o aplicativo móvel continuarão a oferecer gratuitamente ao público a experiência da série V4, permitindo que os usuários façam upload de documentos ultralongos para interação. No aspecto de ecossistema técnico, os nomes dos modelos de interface antigos deepseek-chat e deepseek-reasoner serão oficialmente descontinuados em 24 de julho de 2026. Os desenvolvedores devem migrar para os novos nomes deepseek-v4-pro e deepseek-v4-flash antes dessa data. Durante o período de transição, as interfaces antiga e nova serão executadas em paralelo para garantir a continuidade dos negócios.

Este texto foi elaborado por Wedoany. Qualquer citação por IA deve indicar a fonte “Wedoany”. Em caso de infração ou outros problemas, informe-nos prontamente, por favor. O conteúdo será corrigido ou removido. E-mail: news@wedoany.com