当前位置:首页 → 电脑软件 → 日媒痛批高市早苗:自不量力 → 龙8国际手机版登陆 v7.982 最新版
v5.510.880.133173 PC版
v9.777.4091 安卓最新版
v5.402.379.926617 安卓版
v9.636.8562.608747 安卓最新版
v2.9.2418.450436 PC版
v6.564.3165.213322 安卓版
v5.434.4923 IOS版
v5.996.6518.410596 IOS版
v8.7 最新版
v8.599.4745.584946 最新版
v9.164.9251 安卓版
v4.820.4511.7214 最新版
v1.535 最新版
v9.640.8756 最新版
v7.444 IOS版
v5.621.1401 安卓免费版
v1.9.3324 安卓最新版
v3.389.1079 PC版
v9.750.7654 安卓免费版
v7.520.9314.768774 安卓版
v6.265.2652 IOS版
v2.16.6583.166084 安卓汉化版
v6.432.7391 安卓版
v3.468.658 安卓最新版
v3.762.9154 PC版
v4.296.5757.297487 安卓版
v5.235 IOS版
v8.130.6666 PC版
v4.147 安卓最新版
v4.4.3681.339166 IOS版
v3.210.9268 安卓版
v9.795.2436 安卓版
v9.913 安卓汉化版
v8.537 安卓汉化版
v3.251.851.663686 安卓免费版
v3.886.8315.305902 安卓汉化版
v8.150 安卓汉化版
v6.83.5176 安卓最新版
v8.454.3658 安卓汉化版
v7.274.7513.931511 最新版
v9.888 安卓汉化版
v6.651.213 安卓汉化版
v5.12.7704 最新版
v2.341.4695 安卓免费版
v2.271 安卓最新版
v1.829 PC版
v7.358.1132 安卓版
v4.933.5357.426973 PC版
v1.310.4369.362583 安卓免费版
v4.764.8385 安卓免费版
v1.873.3211 最新版
v7.100.5017 安卓免费版
v4.154.1434 安卓免费版
v5.718.4633.892658 安卓汉化版
v6.239.8002.609520 安卓汉化版
v7.337.7722 安卓免费版
v7.326.3153 IOS版
v9.607.2829 安卓汉化版
v9.507.5255 安卓最新版
v8.231.2673.925271 最新版
v4.512.4825.917659 安卓免费版
v8.666.8131.488202 安卓最新版
v8.132 安卓免费版
v6.535 安卓免费版
v2.40 安卓免费版
v5.75.8313.561286 安卓汉化版
v1.881.2353 安卓最新版
v8.41.4092.278928 安卓版
v9.610.1554 最新版
v9.861.3640.524061 IOS版
v1.320.960.108967 安卓免费版
v9.273.6911 最新版
v2.835.9264 最新版
v1.267.9753.491528 安卓免费版
v5.923.3205 安卓汉化版
v6.814 安卓免费版
v2.366.1767 安卓免费版
v3.302.9157 安卓汉化版
v5.128.2058.972192 安卓汉化版
v8.578.9893.148168 安卓汉化版
龙8国际手机版登陆
衡宇 发自 奥特赛德量子位 | 公众号 QbitAI
ChatGPT发布三周年,DeepSeek嚯一下发出两个模型:
DeepSeek-V3.2DeepSeek-V3.2-Speciale
前者聚焦平衡实用,适用于日常问答、通用Agent任务、真实应用场景下的工具调用。
推理达GPT-5水平,略低于Gemini-3.0-Pro。
后者主打极致推理,推理基准性能媲美Gemini-3.0-Pro。
还一把斩获IMO 2025、CMO 2025、ICPC World Finals 2025、IOI 2025金牌。
划重点,ICPC达到人类选手第二、IOI人类选手第十名水平。
具体来说,DeepSeek-V3.2侧重于平衡推理能力与输出长度,降低计算开销。
DeepSeek官微推文中写道,“DeepSeek-V3.2模型在Agent评测中达到了当前开源模型的最高水平”。
该模型其他情况如下:
推理能力比肩GPT-5;相比Kimi-K2-Thinking大幅缩短输出长度,减少用户等待时间;DeepSeek旗下首个“思考融入工具调用” 的模型,支持思考/非思考双模式工具调用;基于1800+环境、85000+复杂指令的大规模Agent训练数据,泛化能力强。
下图展示的是DeepSeek-V3.2与其他模型在各类Agent工具调用评测集上的得分
——特别强调,DeepSeek-V3.2并没有针对这些测试集的工具做特殊训练。
DeepSeek-V3.2-Speciale是DeepSeek-V3.2的长思考增强版,融合了DeepSeek-Math-V2的定理证明能力。
在指令跟随、数学证明、逻辑验证方面,DeepSeek-V3.2-Speciale能力出众,推荐用来完成高度复杂数学推理、编程竞赛、学术研究类任务。
特别注明!这个版本目前没有针对日常对话与写作做专项优化。
而且仅供研究使用,不支持工具调用。
在高度复杂任务上,Speciale模型大幅优于标准版本,但消耗的Tokens也显著更多,成本更高。
目前,DeepSeek的App和Web端,都已经更新为正式版DeepSeek-V3.2;Speciale版本目前仅供临时API使用。
模型发布同时,技术报告也已经挂出来了。
论文里透露的技术细节相当硬核:
新的稀疏注意力机制DSA大幅降低计算复杂度,强化学习训练的计算量超过预训练的10%,还有全新的大规模Agent任务合成管线……
具体情况,我们详细来看。
提出DSA高效稀疏注意力机制,长文本不再是负担
DeepSeek-V3.2最大的架构创新是引入了DSA(DeepSeek Sparse Attention)机制。
传统的注意力机制在处理长序列时计算复杂度是O(L²),严重制约了模型的部署效率和后续训练的可扩展性。
DSA让计算复杂度降低到O(L·k),k远小于L。
与此同时,DSA让模型在长上下文任务中显著加速推理,且无明显性能损失。
支持FP8精度,适配MLA(Multi-Query Attention)架构,训练友好。
怎么做到的?
DSA主要包含两个组件,一个叫lightning indexer(闪电索引器),另一个叫fine-grained token selection(细粒度token选择)机制。
闪电索引器负责快速计算查询token和历史token之间的相关性分数,然后只选择top-k个最相关的token进行注意力计算。
团队特意选用了ReLU激活函数来提升吞吐量。
DeepSeek-V3.1-Terminus开始继续训练时,团队采用了两阶段策略。
第一阶段是Dense Warm-up,保持密集注意力,只训练lightning indexer,让它学会对齐主注意力的分布。
这个阶段只用了1000步,处理了21亿个tokens。
第二阶段才引入稀疏机制,每个查询token选择2048个键值对,训练了15000步,总共处理了9437亿个tokens。
实测效果相当给力——
在128k长度的序列上,DeepSeek-V3.2的推理成本比V3.1-Terminus降低了好几倍。
H800集群上的测试显示,当序列长度达到128K时,预填充阶段每百万token的成本从0.7美元降到了0.2美元左右,解码阶段从2.4美元降到了0.8美元。
后训练算力超过预训练的10%
值得注意的是,DeepSeek团队这次在强化学习上下了血本。
论文里明确提到,RL训练的计算预算已经超过了预训练成本的10%,这在开源模型里相当罕见。
DeepSeek在技术报告中提到,开源模型在post-training阶段的计算资源投入不足,限制了其在困难任务上的性能。
为此,团队开发了稳定、可扩展的RL协议,使训练后阶段的计算预算超过了预训练成本的10%,从而解锁了模型的先进能力。
展开讲讲——
为了稳定地扩展RL计算规模,团队在GRPO(Group Relative Policy Optimization)算法基础上做了好几项改进。
首先是无偏KL估计,修正了原始的K3估计器,消除了系统性误差。
原来的估计器在某些情况下会给出无界的梯度权重,导致训练不稳定。
其次是离线序列掩码策略。
在实际训练中,为了提高效率通常会生成大批量的rollout数据,然后分成多个mini-batch进行梯度更新。这种做法本身就引入了off-policy行为。
团队通过计算数据采样策略和当前策略之间的KL散度,把那些偏离太远的负样本序列给mask掉,避免它们干扰训练。
团队还特别针对MoE模型设计了Keep Routing操作。
推理框架和训练框架的实现差异可能导致同样的输入激活不同的专家,这会造成参数空间的突变。通过保存推理时的路由路径并在训练时强制使用相同路径,确保了参数优化的一致性。
在具体训练上,团队采用了专家蒸馏的策略。
先为每个任务训练专门的模型,包括数学、编程、通用逻辑推理、通用Agent任务、Agent编程和Agent搜索这6个领域,每个领域都支持思考和非思考两种模式。
然后用这些专家模型生成特定领域的数据来训练最终模型。
Agent能力的突破
此外,此次新模型在Agent任务上的突破也让人眼前一亮。
这次团队找到了让模型同时具备推理和工具使用能力的方法。
在思考上下文管理方面,团队发现DeepSeek-R1那种每次开启新对话就丢弃推理内容的策略,实在是太——浪费token了。
于是设计了新的管理机制:
只有在引入新的用户消息时才丢弃历史推理内容,如果只是添加工具相关消息,推理内容会被保留。即使推理痕迹被删除,工具调用历史和结果也会保留在上下文中。
冷启动阶段,DeepSeek-V3.2团队采用了巧妙的prompt设计。
团队通过精心设计的系统提示,让模型学会在推理过程中自然地插入工具调用。
比如在处理编程竞赛题目时,系统会明确要求模型先思考再给出答案,并用特殊标签标记推理路径。
最硬核的是团队开发了一个自动环境合成pipeline,生成了1827个任务导向的环境和85000个复杂提示。
以旅行规划为例,模型需要在满足各种约束条件下规划三天的行程,包括不重复城市、根据酒店价格调整餐厅和景点预算等复杂逻辑。
虽然在巨大的组合空间中找到满足所有约束的方案很困难,但验证给定方案是否满足约束相对简单,这种”难解易验”的特性非常适合RL训练。
在代码Agent方面,团队从GitHub挖掘了数百万个issue-PR对,经过严格筛选和自动环境构建,成功搭建了数万个可执行的软件问题解决环境,涵盖Python、Java、JavaScript等多种语言。
搜索Agent则采用多Agentpipeline生成训练数据,先从大规模网络语料中采样长尾实体,再通过问题构建、答案生成和验证等步骤产生高质量数据。
评测结果显示,DeepSeek-V3.2在SWE-Verified上达到73.1%的解决率,在Terminal Bench 2.0上准确率46.4%,都大幅超越了现有开源模型。
在MCP-Universe和Tool-Decathlon等工具使用基准测试上,DeepSeek-V3.2也展现出了接近闭源模型的性能。
这些提升,证明了模型能够将推理策略泛化到训练时未见过的Agent场景。
One More Thing
技术报告最后,研究人员坦诚地指出了一些局限性。
由于总训练FLOPs较少,DeepSeek-V3.2的世界知识广度仍落后于领先的闭源模型。
Token效率也是个挑战。通常情况下,本次上新的两个模型需要生成更长的轨迹,才能达到Gemini-3.0-Pro的输出质量。
但团队发话了,这些都是未来版本的改进方向。
不过——
DeepSeek啊DeepSeek,我们心心念念的R2,什么时候给抬上来啊!!!!
相关版本
多平台下载
查看所有0条评论>网友评论