deepseek-v3.2和v3.2-speciale

DeepSeek在去年的12月1日就同时把两个正式版模型给发布出来了,包括DeepSeek-V3.2和DeepSeek-V3.2-Speciale。官方网页端、APP和API全都升级成了正式版的DeepSeek-V3.2,Speciale版本现在只有临时的API服务开放出来,让大家拿来做社区评测和研究用。DeepSeek-V3.2的目标就是把推理能力和输出长度给平衡好,特别适合日常用在问答或者通用Agent的任务场景里。在推理类的Benchmark测试里头,DeepSeek-V3.2的表现跟GPT-5差不多,只比Gemini-3.0-Pro稍微低一点。跟Kimi-K2-Thinking比起来,V3.2的输出长度大幅缩短了,这能明显减少计算开销和用户的等待时间。作为行业的风向标,DeepSeek的一举一动都被大家盯着看呢。网易有道词典发布的2025年度词汇里面,“deepseek”以8672940次的搜索量被选为了年度热词。有道词典负责人说,“deepseek”在词典内部的搜索曲线呈现出明显的爆发式增长特点,从年初靠着“低成本”突破算力封锁开始,几乎每一次重要进展都会带动搜索量上涨。到了今年1月12日,DeepSeek又发布了一篇新论文,标题是《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》,梁文锋也在作者名单里头。这篇论文是北京大学和DeepSeek一起完成的,核心观点是解决了大语言模型记忆力这块的“短板”,提出了“条件记忆”这个概念。当时行业里就都猜着说,DeepSeek的下一代模型V4可能会在今年春节前后正式发布出来。 到了2月13日,澎湃新闻记者从相关人士那里打听到一个消息:DeepSeek的网页和APP正在测试新的长文本模型结构了,支持1M上下文。他们的API服务没变还是V3.2,只支持128K上下文。大家都觉得这意味着DeepSeek这次又要在春节期间“炸场”了,准备发布新模型复刻去年春节那种现象级轰动的场面。