DeepSeek双模型发布:话少助手+偏科天才
12月1日,DeepSeek(深度求索公司)同时发布两个正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。在公开推理测试中,V3.2水平达到了开放人工智能公司(OpenAI)今年8月推出的大模型GPT-5水平,略低于谷歌(Google)的Gemini3 Pro,国产大模型再一次吸引全球目光。
两款模型各有所长
“简单来说,区别于聊天机器人式大模型,DeepSeek-V3.2更像一位‘话少活好’的助手。”DCCI互联网研究院院长、中国社会科学院大学数字中国研究院特聘研究员刘兴亮解释道,这位助手主打高性价比与日常使用,具备更强的推理能力和智能体(Agent)能力,未来有望成为“数字劳动力”,完成自动生成报表、编写代码等复杂工作。
而V3.2-Speciale更像一位“偏科”的科研天才,专攻高难度数学问题求解、学术研究逻辑验证、编程竞赛解题等,旨在将开源模型推理能力推向极致。
工业和信息化部信息通信经济专家委员会委员盘和林表示,新模型有两个质的突破:引用DSA(领域专用架构)和思考型工具调用技术。
盘和林用了一个形象的比喻解释DSA技术:“如果把大模型比作图书管理员,以往旧模型在找书时,每次都要从头一本一本找,词元消耗多且效率低。而DSA让它只需检索最关键信息,可以大幅缩小书架寻找范围,进而提升效率、降低消耗。”
思考型工具调用技术,则瞄准大模型“一思考手就停”的短板。“此前大模型多限于单轮问答,无法像人类一样,在解决复杂问题时进行多轮思考和查阅资料。”盘和林说,“这项新技术让模型得到指令后,能先思考再调用代码执行、数据库查询等工具接口,然后根据结果继续思考、再次调用,如此交替反复,并保留记录供后续推理使用。”
“这是DeepSeek首次将思考融入工具使用,改变了以往模型依赖人‘喂’数据的发展范式,实现AI的自我训练和进化。”盘和林说。
开源模型大有可为
过去一年,大语言模型快速发展,以Google、OpenAI等为代表的闭源社区在复杂任务中表现得愈发优越,而开源社区受制于架构、资源分配及智能体能力等方面的关键缺陷,与闭源社区性能差距进一步扩大。
DeepSeek团队称,这是他们发布新模型的根本动力来源。
刘兴亮认为,新模型缩小了当前开源模型与闭源模型间的差距,证明了闭源大模型的巅峰并非不可逾越,为我国乃至全球开源大模型的发展注入强心剂。
盘和林表示,从今年初发布R1大模型,以深度思考模式和超低成本预算实现中国人工智能发展弯道超车后,DeepSeek的发展主线始终聚焦实用性和泛化能力,让“赶超闭源”从美好愿景变为闭源厂商的现实压力。“最重要的是,DeepSeek为全球开发者提供了一个强大、可控且经济的模型底座,助力大语言模型融入千行百业、形成商业闭环。”他说。
同时,盘和林也提醒,新模型为大语言模型带来了新的治理难题。“需警惕工具调用风险,以及学术造假、自动化生成代码漏洞、产业不公平竞争等挑战,推动开源模型向‘少说话多办事更安全’跃升。”
据悉,DeepSeek的官方网页端、App和API(应用程序编程接口)均已更新为正式版DeepSeek-V3.2,但Speciale版本目前仅以临时API服务形式开放,供社区评测与研究。
| 分享1 |





