当前位置:首页 → 电脑软件 → 苹果正式推出VisionPro应用商店 → 澳门威斯尼斯人官网 v8.602.9317.653172 安卓漢化版
v9.482 安卓版
v3.107.1858.287326 最新版
v7.809 最新版
v3.349.139.321626 IOS版
v6.916.4254 IOS版
v1.270.7641.877586 PC版
v9.7 IOS版
v4.263.3621.333856 PC版
v2.755.3503.107658 安卓漢化版
v7.144.7018.345325 最新版
v2.312.7111.951753 安卓版
v4.272.9136.654128 安卓最新版
v7.946.8348.879225 安卓免費版
v9.469.2858.89593 安卓最新版
v4.207 安卓漢化版
v4.265.2242.110921 最新版
v6.325.7752.227081 安卓最新版
v9.265.3336 安卓免費版
v7.562.5631.574109 安卓版
v3.347.5027.185131 最新版
v6.833.6469.693519 安卓最新版
v6.510.7162.925619 最新版
v6.136.133.883660 安卓最新版
v3.554.2460.188088 安卓漢化版
v2.55 安卓版
v6.13 安卓最新版
v5.308 IOS版
v9.647.7438.803205 最新版
v4.998.2975 安卓版
v4.441.4377 安卓免費版
v6.916.2147.412550 安卓漢化版
v6.913.6157 安卓最新版
v8.417.8525.784484 安卓最新版
v5.438.5894.943301 安卓版
v7.13.7515.384675 安卓最新版
v7.608.4576.628519 安卓最新版
v1.815.3104.266680 安卓版
v1.693.1439.87433 安卓免費版
v1.815.4637.981483 PC版
v3.483.501.583268 PC版
v7.913 PC版
v6.577.2350.149838 最新版
v1.867.8211.214511 最新版
v1.52.5027 IOS版
v2.858.4837 IOS版
v8.482 IOS版
v5.857.5926 安卓版
v7.673 PC版
v6.765.7561.5696 IOS版
v6.291.8544.528804 IOS版
v3.916.6513.61733 PC版
v2.88.4688.581288 安卓版
v3.340.4720 IOS版
v3.50 IOS版
v2.720.863 安卓版
v9.697 安卓免費版
v2.331.1623.295605 安卓最新版
v5.185.1565.798183 最新版
v2.913.9397.969702 IOS版
v7.724.7975 安卓最新版
v8.827.7828.843298 最新版
v3.53.7467.344940 安卓漢化版
v5.687.6879.898444 IOS版
v3.355 安卓漢化版
v3.207.7874 安卓版
v3.423.6305.158027 PC版
v1.571.7467.233350 安卓漢化版
v2.551 安卓最新版
v6.295.4566.483435 安卓最新版
v9.21.8535 安卓漢化版
v2.931.4217.543098 安卓免費版
v7.683.5531 最新版
v3.33.3901 最新版
v4.329.329.757504 最新版
v4.295.3288.647990 安卓版
v7.818.1800 安卓漢化版
v1.75.9816.462535 PC版
v5.930 安卓免費版
v6.172.682 安卓漢化版
v2.704.1015.463271 安卓漢化版
澳门威斯尼斯人官网
大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。
这种繁琐的试错过程,在许多研发团队的日常沟通中屡见不鲜,正如下图所展示的那样:
图 1:研发人员手动调整解码参数的日常。
一个灵魂拷问随之而来:为何不能让模型自己学会如何解码,从而实现真正的「端到端」?
事实上,各大模型厂商的 API 文档也印证了这一难题。以 DeepSeek 为例,其官方文档明确建议针对不同场景设置截然不同的 temperature 值,这使得单一的静态参数设置显得捉襟见肘。
图 2:不同任务需要不同的解码参数,这使得静态设置难以应对复杂多变的现实需求。
近日,由腾讯 AI Lab 的王琰研究员及其团队领衔,联合香港中文大学(深圳)唐晓莹教授及其博士生王志超给出了一个优雅的答案。他们推出了名为 AutoDeco 的全新架构,旨在彻底终结手动解码的「手工作坊」时代。这项研究《The End of Manual Decoding: Towards Truly End-to-End Language Models》,通过让模型动态预测并控制自身的解码参数,向着真正端到端的语言生成迈出了关键一步。
论文链接: https://huggingface.co/papers/2510.26697代码链接: https://github.com/Zacks917/AutoDeco模型链接: https://huggingface.co/collections/Jadeislaw/autodeco
图 3:AutoDeco 位居 Hugging Face Daily Papers 榜首
当前,尽管 LLM 本身已高度集成,但其生成过程的「最后一公里」—— 解码,仍然是一个独立于模型之外的、不可微的僵硬环节。研究团队形象地将其比作「手动挡变速箱」:无论引擎(LLM)多么强大,换挡(调参)依然依赖人工操作。
AutoDeco 的核心思想,就是为 LLM 装上「自动挡」。它通过在标准 Transformer 架构中引入两个超轻量的预测头,让模型在生成每一个 token 时,都能根据当前的上下文信息,动态地预测出最适合下一步生成的 temperature 和 top-p 值。其架构如下图所示:
图 4:AutoDeco(上)与传统手动解码(下)的对比。AutoDeco 将解码参数的预测无缝集成到模型的前向传播中,实现了动态自调节。
核心挑战与技术突破:如何训练一个没有「标准答案」的任务?
设想很美好,然而,一个关键的挑战摆在研究团队面前:如何训练这些预测头?在训练数据中,并不存在每一时刻「正确」的温度和 top-p 标签,这使得监督学习无从谈起。
为此,团队提出了一种创新的、完全端到端的训练策略。他们设计了一种新颖的可微分「软性 top-p」(soft top-p)机制,巧妙地替代了传统 top-p 采样中不可微的「硬截断」操作。该方法分为三步:
图 5:可微分的 soft top-p(橙色线)与传统的 hard top-p (绿色线)对比。Soft top-p 的平滑特性打通了从最终损失到解码参数预测头的梯度路径。
这一设计的巧妙之处在于,它使得从最终的「下一个词预测」损失到解码参数预测头的梯度能够顺畅回传。如此一来,模型便可以在标准的 Next Token Prediction 任务中,通过优化最终生成结果来「倒逼」自己学会如何动态调整解码策略,整个过程无需任何额外的标注数据。
AutoDeco 的惊人表现:三大亮点
通过在 Llama、Qwen、Deepseek 等多个主流模型家族上的广泛实验,AutoDeco 展现了其强大的能力:
卓越的性能与泛化能力
实验结果表明,AutoDeco 不仅稳定超越了传统的 Greedy Search 和 Default Sampling 等基线方法,其性能甚至能媲美、乃至超越了利用测试集进行精细调优的「神谕」基线(oracle-tuned baseline)。
图 6:AutoDeco 在多个数学和通用任务 benchmark 上均取得了 SOTA 性能,展现了其强大的泛化能力。
极致的效率与易用性
AutoDeco 的预测头设计极为轻量,其带来的额外推理延迟通常仅为 1.7%,内存开销也几乎可以忽略不计。对于开发者而言,接入 AutoDeco 模型仅需修改几行代码,即可享受「免费」的性能提升。
「言出法随」:开创性的自然语言控制能力
研究中最令人兴奋的发现之一,是 AutoDeco 涌现出的一种「通过自然语言控制解码」的能力。用户可以直接在 prompt 中通过自然语言下达指令,如「我希望答案更有创意」,模型便能「听懂」并自主地调高其预测的 temperature 和 top-p 值,整个过程清晰可见。
图 7:在不同指令下,AutoDeco 预测的 T/P 值变化。从左至右分别为:基线、高创造力指令(T/P 值自发升高)、高确定性指令(T/P 值自发降低)。
当然,作者坦言这种能力还不够完善,还做不到非常精准的控制。他们猜测实现细粒度、高精度的自然语言控制解码无法仅仅能通过微调 AutoDeco 模块做到,而是需要全参微调模型,这也被他们列为了 Future work 的重点。因此,作者没有放出带有自然语言控制能力的 AutoDeco heads 权重。
AutoDeco 在发布后迅速吸引全球 AI 社区的关注,在 Twitter 等社交平台上引发了顶尖学者、开发者和企业家的广泛热议和高度评价。
图 8:大模型社区对 AutoDeco 的广泛热议和高度评价。
目前,该团队已将论文、代码以及在多个主流模型上训练好的 AutoDeco heads 全面开源,包含适配于 Deepseek V3.1、Qwen3-235B、GPT-OSS-120B 等生产级大模型的版本。正如研究人员在分享中所说,这项工作旨在将研究者和开发者从繁琐的调参工作中解放出来,共同迈向一个更智能、更自动化的 AGI 新时代。
相关版本
多平台下载
查看所有0条评论>网友评论