(文/陈济深 编辑/吕栋)
12月1日,DeepSeek发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。其中DeepSeek-V3.2是两个月前DeepSeek-V3.2-Exp的正式版,做到了平衡推理能力与输出长度,适合日常使用,例如问答场景,并强化了Agent能力。官方网页端、App和API均已更新为正式版DeepSeek-V3.2。
Speciale版本是DeepSeek-V3.2的长思考增强版,同时结合了DeepSeek-Math-V2的定理证明能力。目标是将开源模型的推理能力推向极致,探索模型能力的边界。目前仅以临时API服务形式开放,以供社区评测与研究。
回顾过去一年,开源大模型生态在年初DeepSeek惊艳亮相之后集体爆发,阿里云的Qwen系列不断刷新榜单,月之暗面的Kimi,智谱的GLM和MiniMax的M系列模型均在发布后收获了国内外的好评并取得了超越当时顶级闭源模型的开源成果。这一波群雄并起的浪潮,将“开源追平乃至超越闭源”从一句口号变成了让闭源厂商感到压力的现实。
然而,随着Google Gemini3.0的强势发布,凭借庞大的的算力和数据,Gemini 3.0 Pro重新定义了什么是“全球最强”。其强劲的性能甚至让同为竞争对手的马斯克(xAI)和奥特曼(OpenAI)纷纷点赞,开源和闭源似乎不复存在的差距瞬间又变成了一道新的天花板。
与此同时,OpenAI前首席科学家Ilya Sutskever近期新万博体育:“Scaling Law撞墙”的论断,更是给后来者泼了一盆冷水:如果连单纯堆算力都开始失效,那么资源本就处于劣势的开源社区,难道注定只能止步于此?
在“前有算力新霸权,后有理论新瓶颈”的至暗时刻,作为开源先锋的DeepSeek再次用新模型给出了一个掷地有声的回应:开源的崛起不会因此中断。以DeepSeek为代表的国产开源模型厂商依然找到了在算力受限的情况下,通过后训练和架构创新来弥补差距,甚至实现反超闭源顶尖模型的解法。
而在这种背景下DeepSeek能做到行业头部大模型也意味着,DeepSeek在未来一旦开始堆算力,不仅有望成为全球顶尖的语言大模型,甚至可以成为一个多模态的最强全球模型。
实用主义与极致探索
此次DeepSeek更新的两款模型有着截然不同的定位,分别指向了“工业落地”与“科学探索”两个极端。
作为9月底发布的实验版V3.2-Exp的正式继任者,标准版DeepSeek-V3.2的目标非常明确,那就是平衡推理能力与输出长度。
在公开的推理测试中,V3.2已达到GPT-5的水平,仅略低于Google最新的Gemini 3 Pro。相比同类产品Kimi-K2-Thinking,V3.2得益于严格的训练策略,其输出长度大幅降低,显著减少了计算开销与用户等待时间,真正做到了适合问答、通用智能体等日常场景的“话少活好”。
而此次发布的重头戏DeepSeek-V3.2-Speciale,则是一个为了“赢”而生的偏科天才。
作为V3.2的“长思考增强版”,Speciale结合了DeepSeek-Math-V2的定理证明能力,具备出色的指令跟随、严谨的数学证明与逻辑验证能力。它的目标是将开源模型的推理能力推向极致。
数据显示,Speciale在多个推理基准测试中超越了Google最先进的Gemini3 Pro。在美国数学邀请赛(AIME)、哈佛MIT数学竞赛(HMMT)、国际奥林匹克数学竞赛(IMO)等测试中,Speciale全面超越对手。不过在编程与理工科博士生测试中,Speciale仍略逊于Google的顶级模型。
算法层面的极限突围
在预训练算力不如Google的客观现实下,DeepSeek依然能够追上第一梯队,依靠的是其在架构层面“榨干”硬件性能的极致创新。
面对长文本计算量的指数级爆炸,DeepSeek没有选择硬抗,而是设计了DSA(DeepSeek稀疏注意力)机制。
这套机制就像一个挑剔的图书管理员,通过“闪电索引器”只检索最关键的信息,而不是把所有书都翻一遍。在经过V3.2-Exp两个月的实验后,DeepSeek确认了DSA的有效性,在不牺牲长上下文性能的前提下,成功将计算复杂度大幅降低。这种设计为V3.2在智能体场景中成为一种极具成本效益的替代方案打下了物理基础。
V3.2的核心亮点之一是其提到的“Thinking in Tool-Use”(思考型工具调用)。这实际上是AI Agent领域更为通用的技术术语——“Interleaved Thinking”(交错思维链)的一次重量级背书。
DeepSeek并不是业内首个提出该思路的模型厂商,同为国产大模型企业的MiniMax早在其文本模型M2研发阶段时,就已经敏锐地捕捉到了这一技术路径,且是首个将Interleaved Thinking推向行业标准的公司。
随后,月之暗面的Kimi K2 Thinking也基于“模型即Agent”的理念,通过端到端训练实现了推理与工具调用的自然融合。
Interleaved Thinking对Agent究竟意味着什么?它不仅仅是简单的“边想边做”,而是在显式推理(Reasoning)与工具调用(Tool Use)之间交替进行,并将推理结果作为“状态”持续带入后续步骤。
从技术本质上看,它将冗长、重度依赖工具的任务转化为稳定的“计划→行动→反思”循环;而其核心价值在于,通过复用假设、约束与部分结论(而不是每次从头推导),极大地减少了多轮任务中的“状态漂移”与重复性错误,确保每一步行动都基于最新的证据(Evidence)。
这一技术听着并不复杂,实际实现的难度并不简单,月之暗面联合创始人吴育昕在K2模型发布后曾在一次Ask Me Anything活动中坦言,支持“思考—工具—思考—工具”的交错模式是大模型中相对较新的行为,需要大量工作才能做好。
而DeepSeekV3.2的发布,标志着这一极具挑战的技术已不再是单一厂商的特色探索,而是正式成为了高性能模型的“标配”,从“先锋探索”走向了“行业共识”。
为何DeepSeek罕见押注Agent?
值得注意的是,在最新的技术报告中,DeepSeek罕见地将“Agent能力”提升到了与“推理能力”同等重要的战略位置。
从早期的Coder工具调用到如今的Thinking in Tool-Use,DeepSeek着重提及Agent本次不仅是功能的升级,更是对未来行业方向的预判。这背后并非简单的热点追逐,而是基于经济、数据与平台三个维度的深层逻辑。
从经济维度来看,过去一年行业发现了一个残酷的事实:仅靠聊天问答,商业价值难以规模化。
企业真正愿意付费的不是“更优美的回答”,而是“降本增效的行动”——自动生成报表、自动处理工单、自动写代码。
Agent给LLM装上了“眼睛+手+大脑”,使其从“对话式AI”进化为“动作式AI(Actionable AI)”,这才是真正能产生商业闭环的地方。
DeepSeek显然看到了这一点,试图通过Agent能力将模型从“聊天机器人”进化为真正的“数字劳动力”。
在数据层面,ScalingLaw遇到的瓶颈在Agent领域找到了突破口。
高质量的人类对话数据昂贵且有限,但Agent的任务轨迹(Trajectory)不同:它可以像DeepSeek此次构建的1,800个合成环境一样,通过自动化生成、判定和奖励(Reward),进行大规模的强化学习(RL)。
这意味着,Agent任务数据将成为未来最便宜、最可规模化的优质训练“燃料”。
而从平台逻辑的视角出发,大模型正在演变成调度工具、完成任务的通用操作系统。
未来的生态中,模型是内核,Agent是用户态程序,而插件则是工具。谁先占领了Agent的标准(如MCP、函数调用规范),谁就可能成为AI时代的Windows或iOS。DeepSeek发力智能体领域变意味着其思路已经从工具转变成基础设施提供商的转变。
如何缩小中外差距?
在DeepSeek最新的技术文档中,他们也毫不避讳的提到了一个观点:开源与闭源模型的差距,其实正在拉大。
DeepSeek表示,虽然推理模型的发布推动了整体性能的大幅跃升,但过去几个月中出现了明显的分化。闭源专有模型如Google、OpenAI、Anthropic的性能增长速度却显著更快,专有系统在复杂任务中展现出越来越强的优势。
DeepSeek认为,开源模型目前存在三个关键缺陷:首先是架构层面,对标准注意力机制的过度依赖严重制约了长序列处理的效率;其次在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了高难度任务的表现;最后在Agent领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署。
除了行业通病,DeepSeek也坦诚了自家的局限性。V3.2的世界知识广度仍落后于领先的专有模型,且为了达到Gemini3Pro的输出质量,V3.2通常需要生成新万博体育:的Token,导致效率较低。同时,在解决极其复杂的综合任务时,其表现仍不如前沿模型。
面对这些差距,DeepSeek给出了清晰的改进路线:计划在未来通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的“智能密度”,提高效率,让模型学会“少说话、多办事”。
在海外社媒上,有网友评价DeepSeek此次发布是了不起的成就,认为匹配GPT-5和Gemini3 Pro的开源模型终于出现了,差距似乎正在消除。它不断证明,严谨的工程设计可以超越单纯的参数规模。
DeepSeek-V3.2的发布,给所有处于焦虑中的开源关注者打了一剂强心针。它证明了,让Sam Altman紧张、让Google炫耀的最强模型,并不是不可逾越的天堑。
模型发布后,DeepSeek研究员Zhibin Gou在X上发文:“如果Gemini-3证明了持续扩展预训练的可能性,DeepSeek-V3.2-Speciale则证明了在大规模上下文环境中强化学习的可扩展性。我们花了一年时间将DeepSeek-V3推向极限,得出的经验是:训练后的瓶颈需通过优化方法和数据来解决,而非仅等待更好的基础模型。”
他还补了一句:“持续扩大模型规模、数据量、上下文和强化学习。别让那些'遭遇瓶颈'的杂音阻挡你前进。”
这是DeepSeek团队少有的发声,而这一幕颇有意味,当行业在讨论Scaling Law是否撞墙时,DeepSeek用实打实的模型喊话,想证明Scaling没死,只是换了战场。
《哪些正规的平台可以买球》,《Q8X2R7L1T4J5M9B6W3》金沙电子游戏平台
“果博赌场网站”
韦德体育体育APP
……
11月30日
“宝马会网址”如何看待高铁涨价
↓↓↓
11月30日,2024年医保目录现场谈判竞价正式开始 结果拟于11月公布,先锋总刚B,九州bet9登陆,银河场注册,世界杯投注在哪买颊fc3
11月30日,文明遇鉴|这些青铜国宝身上蕴含了哪些“文明密码”,银河国际官方app,正版银河游戏中心,买球投注网,万博官网网页版首页登陆
11月30日,澳门今年上半年旅客总消费超377亿澳门元 同比增长16.4%,十大赌场手机注册,ag真人登录,金沙官网棋牌,赌足球上哪个app
11月30日|中俄美术联盟首届大会在哈尔滨举行 两国高校艺术作品展同期开幕|必赢亚洲手机网上登录|long88868|盛大账号注册|2026世界杯预选赛投注
11月30日|中国香港奥运冠军江旻憓加入香港赛马会|银河app官方|金沙线上的娱乐官方网站|凯时k66傅彩|沙巴体育2022世界杯
11月30日|成都“香肠一条街”腊味飘香 独特口味“上新”揽客|凤凰彩票体育APP|mg游戏在线网站|口袋德州官方|九州体育在线官网……
11月30日,十四届全国人大二次会议主席团举行第三次会议,艾弗森贝博app官方下载,万博max登陆,亚娱体育app,百家乐官方下载
11月30日,【澜湄印象】玉树印象,bbin免费白菜,ks凯时app,电竞篮球比分,世界杯投注万博app
11月30日|女子痴迷减肥诱发心衰 抢救16天挽回一命|能上下分的手机捕鱼|足彩世界杯投注方法|买球app下载|云顶娱乐的网址谁知道
11月30日,台湾史进上海校园活动举行:阅见历史 开创未来,博e百娱乐城,澳门永利有多少个网址,国际真人cs战队名字,伟德vb
11月30日,新疆图木舒克:成群灰鹤栖息越冬 场面壮观,y6英亚体育,亚博免费试玩,银河app平台网址,五星体育网
11月30日,3月12日央行开展100亿元7天期逆回购操作,球天下体育,哪些网站能看世界杯,bob78体育,ag亚洲游官网下载
11月30日|(走进中国乡村)浙江德清:全域美丽带动全民共同富裕|乐鱼官网app正式|世界杯投注怎么算中奖|世界杯买球赛网站|欧博在线买球
11月30日|山东乡村文化旅游节即将“登场” 邀民众过特色“鲁味年”中国国内企业拥有有效发明专利290.9万件 占比首超七成|英皇体育app下载|金沙澳门官网app下载|足球世界杯买球规则是|大发beta
11月30日|道中华丨工艺美术大师刘冠英:匠心传承技艺 泥塑百态人生|鸿运国际官方网站|和记娱乐快速开户|必博手机版登陆|乐百家官方网站
波西·杰克逊与奥林匹亚众神,令人心动的offer 第六季|山西加强煤矿水害防治工作 提升治理水平|kok体育APP|体球网足球比分|波音网投|世界杯彩票购买app
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺