v1.128.4957.476545 最新版
v9.603.3389.94616 安卓漢化版
v1.987.6126 安卓漢化版
v5.255.7384 IOS版
v8.605.7389.427913 PC版
v7.725.4330.565467 安卓版
v5.124 最新版
v2.940.6025 安卓版
v4.189.7349.908836 安卓版
v4.104 安卓最新版
v3.549.6919 安卓版
v4.803.166.201973 安卓最新版
v2.90.9822 IOS版
v5.973.3181.677984 安卓版
v2.325.9859.481254 安卓最新版
v8.704.3933 安卓免費版
v7.690 PC版
v2.37 安卓免費版
v9.601.4125.27766 IOS版
v1.190 安卓最新版
v4.562.5459 安卓免費版
v9.694 安卓漢化版
v9.149.5551.408451 安卓最新版
v2.631.7886.39351 IOS版
v4.665 安卓最新版
v2.883.5809 安卓最新版
v6.20.8075.744541 安卓免費版
v5.39.2115.152085 安卓免費版
v2.683 安卓最新版
v7.567.2442 安卓版
v1.139.3051.4890 安卓版
v3.761.7614 安卓漢化版
v2.993.3610.802946 安卓版
v5.518.8678.873841 安卓漢化版
v1.950 安卓漢化版
v8.23 PC版
v6.342 安卓免費版
v4.742.2318 IOS版
v4.397.4902.374521 安卓漢化版
v5.173.9006 最新版
v8.86.6283.215391 安卓最新版
v2.849 安卓版
v2.267.4061.424437 最新版
v1.387.1969 最新版
v4.411 IOS版
v2.131.3728.24176 安卓免費版
v9.39.7712.510242 IOS版
v3.734.916.187147 最新版
v3.754.321.437722 PC版
v9.357 安卓免費版
v6.564 PC版
v3.521 IOS版
v6.568.863 安卓漢化版
v3.839.4973 PC版
v5.766.260 安卓免費版
v9.897.7056.907476 PC版
v7.674.2579 IOS版
v8.380.1947.762397 安卓漢化版
v4.468.1001.444550 安卓最新版
v6.286 安卓免費版
v6.184 安卓最新版
v4.336.8353.305788 安卓最新版
v3.765.3330.227031 安卓版
v4.277.7827.790507 IOS版
v5.332 安卓免費版
v4.836.5328.30702 安卓漢化版
v5.18.9175 安卓漢化版
v8.11.791.12458 最新版
v4.464.7821 安卓漢化版
v5.868.2733.30809 安卓最新版
v9.612.8610 安卓漢化版
v5.265 安卓最新版
v4.93.7276 安卓版
v5.611.4824.30689 安卓免費版
v2.888.5315.413186 安卓免費版
v9.156.6923 安卓版
v3.236 最新版
v8.940.9289.159984 PC版
v9.882.5146.768490 安卓最新版
v5.683 最新版
播播岛电影
近一年以来,统一理解与生成模型发展十分迅速,该任务的主要挑战在于视觉理解和生成任务本身在网络层间会产生冲突。早期的完全统一模型(如 Emu3)与单任务的方法差距巨大,Janus-Pro、BAGEL 通过一步一步解耦模型架构,极大地减小了与单任务模型的性能差距,后续方法甚至通过直接拼接现有理解和生成模型以达到极致的性能。
香港中文大学 MMLab 和美团的研究者相信,在不久的将来统一模型的性能一定能够达到单任务的水平,但同时也引起了他们的思考,目前通过拆解架构换取性能提升的方式真的是正确的吗,它是否背离统一模型的初衷,它能够提升性能的内在原因又是什么,这种方式真的是统一模型必须的吗?
「统一模型的初衷」以及「 架构解耦的缺点」
统一理解生成模型的初衷是为了通过透明化、合理化的图文交错思考过程,提高单任务的性能,例如让模型走迷宫时统一模型可以生成每一步对应的图像,可以在模型做数学题的时候给图像画上辅助线,或者是在生成一张图像的时候边画边思考有没有生成不合理的地方并且自动修正,这些都是 Uni-MMMU 等当前统一模型基准所关注,也是它本身被独立成一个领域的初衷。
再回到架构解耦的模型,例如 BAGEL 上,它本身如果要实现图文交错思考,需要经历隐空间解码到文字或者像素空间,然后再编码到隐空间的复杂过程,两个任务也几乎不在同一个模型空间中,具有计算开销大、信息丢失两大问题。虽然在当前情况下相比于其可观的性能,这个问题似乎并不显著,但是研究者认为随着研究的进行,这会是一个很大的问题。
AIA: 模型架构解耦不是统一模型必须的
为了探究清楚「架构解耦带来性能提升的内在原因」以及「探索不使用架构解耦的前提下提升模型性能的方式」,香港中文大学 MMLab 和美团联合推出了 AIA。
论文标题:Architecture Decoupling Is Not All You Need For Unified Multimodal Model论文链接:https://arxiv.org/abs/2511.22663代码:https://github.com/zhengdian1/AIA网页:https://github.com/zhengdian1/AIA-project
研究者首先通过研究不同架构的统一模型在每一层网络中跨模态交互的强度,他们惊讶地发现不管如何进行模型架构解耦,理解和生成任务在同一层网络中始终呈现负相关的关系,同时进一步验证了这个现象与输入的模态、长度和类别都没有关系,这说明是模型自发在学习如何合理地分配两个任务在每一层中的占比,从而 「缓解冲突」,这又说明架构解耦本质上并没有解决任务之间冲突的问题。
研究者进一步在最后一列可视化了现在单任务 SOTA 的模型的多模态交互模式(HunyuanImage-3.0 虽然是统一模型,但更侧重于生成效果),结果发现随着模型解耦程度的增强,其对应的跨模态交互模式会趋向于单任务的表现,这也是能够实现性能提升的主要原因。
基于这个发现,研究者设计了Attention Interaction Alignment (AIA) 损失,通过将单任务模型的跨模态交互模式作为学习目标,在训练的过程中显式地约束统一模型的交互模式。
AIA 效果如何?
研究者在 Emu3 和 Janus-Pro 这两种完全统一架构、轻微模型解耦架构上进行了实验,如下表所示,结果表明本文的方法能够在没有任何其他 trick 的情况下提升这些模型的性能,减小了与更高解耦程度模型的差距。
同时,研究者给出了使用 AIA 损失之后 Emu3 和 Janus-Pro 跨模态交互模式曲线变化,可以发现加入了 AIA 损失之后,两个模型的交互曲线都向单任务模型的表现靠近了,既证明了 AIA 损失的有效性,同时也说明了模型架构解耦不是唯一能够提高统一模型性能的方式。
当然,研究者也承认在目前情况下完全统一的方法和高解耦程度的模型之间存在很大的差距,但正如 Emu3.5 的出现,他们认为这个差距会越来越小。因此,研究者呼吁新万博体育:的人抛开表层的框架和数据配比,深入研究统一模型的任务冲突问题,寻找更优的解法。
AIA 好训吗?
由于 Emu3 只有预训练 (PT) 阶段是统一训练的,因此研究者在其 PT 权重上进行微调,而 Janus-Pro 给的是最终 SFT 微调后的权重,研究者在此基础上进行后训练。
研究者通过调整 AIA 损失与 next-token-prediction (NTP) 损失的比重来测试其微调的敏感度,结果发现训练 Emu3 的时候由于其预训练知识比较薄弱,AIA 损失在一个很大的范围内都能达到稳定收敛的效果。而在 Janus-Pro 中,由于其本身预训练知识很强,AIA 的加入非常容易影响模型训练,但在合适的比重情况下仍然能够达到不错的效果。
AIA 有什么优势?
AIA 损失的加入可以一定程度上减少现在常见的数据配比工程问题,本文的方法在生成与理解数据配比在 1:1 的情况下能够达到更好的效果,这说明在一定程度上两个任务的训练不再是冲突的,产生了协同优化的效果。
统一模型训练的正确道路是什么?
通过结合现在所有统一模型训练的问题以及本文的实验分析,可以发现不管怎样解耦模型,其始终会在统一训练的过程中动态分配不同任务在同一层的权重来缓解冲突,那这是否实际上代表了统一模型的正确行为?
另一条统一路径是移除所有可以用来区分任务的线索(即采用统一分词器、消除任务相关特殊 token、使用交错数据数据输入),迫使模型只能从输入中学习真正的统一空间。虽然这种方法或许可以解决任务间的负相关问题,但也会显著增加训练难度。
未来展望
AIA 迈出了统一模型训练原理分析的第一步,研究者希望能够有新万博体育:志同道合的研究者加入这个领域的探索。统一模型现在的理论、架构都远远没有达到成熟,需要大家共同进行探索。同时研究者也希望大家能够更加关注统一模型真正的意义,不要一味地关注当前单任务基准上的性能。
相关版本
多平台下载
查看所有0条评论>网友评论