当前位置:首页 → 电脑软件 → 卡普空老将入职腾讯光子 → AG体育下载 v6.8.5780 安卓最新版
v2.800.9885.734741 安卓最新版
v7.895.8263 安卓版
v8.437 安卓漢化版
v3.688 安卓最新版
v5.506.190.58113 最新版
v6.760.5930.562610 安卓版
v4.893.6208 安卓版
v2.820 安卓漢化版
v8.367.8330.342578 安卓最新版
v2.225.8043.297945 PC版
v2.491 安卓最新版
v3.417 安卓版
v8.341.1623 安卓漢化版
v2.583.6788 安卓漢化版
v8.335.5222.561614 安卓免費版
v4.884 IOS版
v1.248 安卓漢化版
v3.762 安卓漢化版
v3.871 安卓免費版
v1.454.7739 最新版
v6.654.3639 安卓最新版
v4.293.2168.648177 安卓版
v1.866.6673 最新版
v1.983.1251.817916 安卓最新版
v6.315.7821.387280 安卓版
v9.315.4550.453115 安卓漢化版
v9.770.1622.705576 安卓免費版
v3.621.9950.508440 安卓漢化版
v5.672.8576.802730 安卓最新版
v1.456.1259 IOS版
v6.517.119.899368 安卓免費版
v7.49.7567.123337 安卓版
v3.645 安卓免費版
v5.680.5289 安卓版
v8.337 安卓漢化版
v9.890.173.380492 IOS版
v3.277.9144 安卓版
v2.485.3572.303458 安卓最新版
v2.229 安卓免費版
v1.413.4940.150020 PC版
v5.295.3602 安卓免費版
v4.462.3393.612888 最新版
v9.195.2660.507795 安卓最新版
v2.497.1144.964401 安卓版
v8.941.7057.438314 IOS版
v7.105.3028.32341 安卓免費版
v5.285.9386 PC版
v7.414.5110.198590 PC版
v6.307.9125.413900 PC版
v1.481.8481.960485 安卓最新版
v2.307.7998 安卓漢化版
v9.291.567.651532 安卓漢化版
v6.473 安卓最新版
v9.26.6027 安卓最新版
v8.104.3355 IOS版
v8.930 安卓漢化版
v5.456 最新版
v9.861.1145 IOS版
v1.556.3908 IOS版
v1.51.6387.633815 安卓最新版
v2.135.3998.927364 PC版
v4.409.2014 安卓免費版
v5.686.2268.51782 安卓免費版
v3.55.1028 安卓最新版
v6.253.7584.335162 PC版
v4.872 安卓版
v4.512.6541 PC版
v2.627.564.166374 IOS版
v3.644 PC版
v8.243.6401.307081 安卓漢化版
v2.851.6971.17594 IOS版
v5.493.6171 安卓版
v8.621.626 安卓最新版
v2.827.5165.49341 安卓最新版
v6.579.1721.855350 IOS版
v6.422.8542 安卓免費版
v4.724.438 安卓最新版
v4.849.9220 安卓免費版
v4.547.1241.664175 IOS版
v5.358.1931.63578 最新版
AG体育下载
该项目由北京大学彭一杰教授课题组完成,第一作者为任韬,其他作者包括江金阳、杨晖等。
研究背景与挑战:大模型后训练陷入「均值陷阱」,推理能力难破界
当强化学习(RL)成为大模型后训练的核心工具,「带可验证奖励的强化学习(RLVR)」凭借客观的二元反馈(如解题对错),迅速成为提升推理能力的主流范式。从数学解题到代码生成,RLVR 本应推动模型突破「已知答案采样」的局限,真正掌握深度推理逻辑 —— 但现实是,以 GRPO 为代表的主流方法正陷入「均值优化陷阱」。
这些基于均值的优化策略,过度聚焦高概率输出序列,却忽略了「低概率但高信息密度」的推理路径:模型训练早期就会出现熵坍缩,过早丧失探索能力;面对全错的难题时,优势函数直接归零,模型在薄弱环节完全无法学习。最终结果是,大模型看似在 Pass@1 等短视指标上有提升,实则推理边界从未拓宽,更无法应对 AIME 竞赛题、复杂代码生成这类高难度任务。如何让模型主动「啃硬骨头」,成为大模型后训练的关键瓶颈。
AIME2024 上的学习表现
技术方案概述:用「风险度量」破局,MVaR + 捆绑策略双管齐下
为解决传统均值优化的缺陷,北大团队提出 RiskPO,核心突破在于将风险规避(risk-averse)理念融入优化目标,用「关注奖励分布左尾(难任务)」替代「追求整体均值」,从根本上引导模型突破推理短板。
论文链接:https://arxiv.org/abs/2510.00911v1代码链接:https://github.com/RTkenny/RiskPO
为配合 MVaR 目标,团队提出「多问题捆绑」策略,将多个问题打包成 bundle 计算奖励,把稀疏的二进制反馈转化为更丰富的分布信号,彻底解决「难题零梯度」问题—— 比如将 5 个数学题打包后,模型能从整体得分中捕捉到「部分正确」的学习信号,而非单个题目非对即错的极端反馈。
算法架构图
实验:三大任务全面碾压,难问题上优势更显著
好的技术方案,终要靠硬指标说话。北大团队在数学推理、代码生成、多模态推理三大领域的 10 余个数据集上,用数据证明了 RiskPO 的突破性 —— 尤其在最能体现推理能力的「硬任务」上,优势远超 GRPO 及其变体。
在数学推理领域,RiskPO 在 AIME24(美国数学邀请赛)任务上表现惊艳:Pass@32 得分比 GRPO 高出近 7 个百分点,比最强基线 DAPO 提升 6.7 个百分点;即便是相对简单的 MATH500 数据集,其 Pass@1 也达到 81.8%,超出 GRPO 2.6 个百分点。
更关键的是,随着评估指标从 Pass@1 转向 Pass@8、Pass@16,RiskPO 的优势持续扩大 ——这意味着模型不仅能给出更优的单条答案,还能探索新万博体育:有效推理路径,真正突破了「采样效率优化」的局限。
数学推理任务
Pass@k 学习曲线
在跨领域任务中,RiskPO 同样稳定领先:代码生成任务 LiveCodeBench 上,Pass@1 比 GRPO 提升 1 个百分点;多模态几何推理任务 Geo3K 上,准确率达到 54.5%,优于 DAPO 的 54.3%。这种「全场景增益」,证明了风险度量优化的泛化能力。
其他任务
理论 + 消融:熵坍缩缓解有依据,参数设计有章法
RiskPO 的性能突破,并非依赖工程调参,而是有扎实的理论支撑和严谨的消融实验验证。
高熵更新定理
从理论层面,团队证明了「风险规避更新」能有效缓解熵坍缩:通过分析策略熵的变化机制,发现 RiskPO 的 MVaR 目标函数能降低「优势 - 对数概率」的相关性 —— 相比 GRPO,模型不会过度强化已掌握的易任务,从而保持更高的熵值和探索能力。
实验中也能清晰看到:训练 500 步后,GRPO 的熵值已趋近于 0,而 RiskPO 仍能维持 0.2 以上的熵水平,确保对难任务的持续探索。
训练集 DAPOMATH-17k 上的各项指标
值得注意的是,在训练过程中,若仅观察以均值为核心的指标曲线(如平均奖励),GRPO 与 RiskPO 的表现几乎难分伯仲,甚至 RiskPO 因更高的探索性还伴随轻微波动;但切换到风险敏感指标(如下尾 RVaR、MVaR 奖励)时,两者差距立刻凸显 ——RiskPO 的曲线始终保持显著领先,且随训练推进持续攀升。
这种「均值相近、风险指标悬殊」的现象,再结合最终测试集上 RiskPO 在 Pass@k(尤其是高 k 值)、难任务(如 AIME 竞赛题)上的优势,进一步印证了:均值目标只能让模型在「已知能力范围内优化采样效率」,而风险度量目标才是推动模型突破推理边界、真正提升核心能力的理想方向。
不同风险偏好对比实验
结果显示,风险寻求模型的熵值在训练早期就剧烈坍缩—— 训练 150 步后熵值已降至 0.1 以下,远低于 RiskPO 的 0.2;性能上,风险寻求模型在训练 50 步后便进入平台期,MATH 数据集 Pass@1 仅从 52% 提升至 54%,而 RiskPO 则持续优化至 56%,实现 1.5 倍的提升幅度。
这一对比清晰证明,聚焦易任务的风险寻求策略会加速模型「固步自封」,只有风险规避才能驱动模型突破推理边界
相关版本
多平台下载
查看所有0条评论>网友评论