v9.322 安卓最新版
v3.541.6410.526342 安卓免費版
v4.380.3482 安卓免費版
v9.584.4552.246586 安卓最新版
v7.949.2067 最新版
v1.305.5666.284404 安卓最新版
v7.889.2506.116165 安卓最新版
v6.294.3424.846413 最新版
v5.218 安卓免費版
v3.309.741.686371 安卓最新版
v7.337.762.378949 最新版
v3.836.1455 安卓漢化版
v5.171.5262.429892 最新版
v9.969.7708.936865 IOS版
v1.940.3984 安卓最新版
v7.573.8676 PC版
v6.772.1291.423115 安卓漢化版
v4.784.1758.612620 安卓免費版
v7.441.7128.463219 安卓免費版
v4.612.8136.556370 最新版
v8.428 安卓最新版
v9.344.2259.435637 IOS版
v7.866.4953.825496 安卓版
v8.107.1659.666479 安卓免費版
v8.486 安卓版
v7.89 最新版
v8.29 安卓漢化版
v9.842.7236.856371 PC版
v4.36 安卓漢化版
v6.525 PC版
v8.78.4272.575334 安卓最新版
v4.832.324.392633 最新版
v2.150.8947.261798 安卓免費版
v2.11 PC版
v5.112.8910.59874 最新版
v2.14.8450.243917 PC版
v7.554.4342 安卓最新版
v6.108 IOS版
v7.167.9691.366526 安卓免費版
v4.240.665.911596 PC版
v9.431.9424.848053 安卓最新版
v8.60.6459.335410 最新版
v5.85.9554.555538 IOS版
v2.308.1941.840953 安卓最新版
v3.648.9433.680096 PC版
v1.50 安卓最新版
v4.375.845.639813 最新版
v2.454.8937 安卓版
v1.174.4184.763523 安卓免費版
v6.622 安卓免費版
v6.744 安卓最新版
v7.111.7470.693924 安卓免費版
v4.954.6473 IOS版
v2.926 最新版
v1.543 安卓最新版
v3.733.2820 最新版
v6.36.8824.409885 安卓免費版
v5.875.3277.393430 安卓最新版
v4.383.9090.184376 安卓版
v9.191 最新版
v5.290.2528.116459 最新版
v5.770 安卓漢化版
v1.238 安卓漢化版
v9.262.130.485479 安卓免費版
v6.939.1138 安卓免費版
v7.391.5015 安卓版
v9.201.4456 最新版
v8.614.6541.838997 安卓漢化版
v5.261 最新版
v1.992.1262.26918 安卓最新版
v5.931.1319.195682 安卓漢化版
v1.710.8408.944248 IOS版
v3.198.6329.799413 安卓版
v9.686 安卓最新版
v2.365.5906.502143 安卓漢化版
v2.502 安卓免費版
v3.928.4572.267251 安卓版
v1.166.4839.869710 安卓免費版
v7.717 安卓最新版
v5.428.7978.125384 安卓漢化版
必赢登陆
近一年以来,统一理解与生成模型发展十分迅速,该任务的主要挑战在于视觉理解和生成任务本身在网络层间会产生冲突。早期的完全统一模型(如 Emu3)与单任务的方法差距巨大,Janus-Pro、BAGEL 通过一步一步解耦模型架构,极大地减小了与单任务模型的性能差距,后续方法甚至通过直接拼接现有理解和生成模型以达到极致的性能。
香港中文大学 MMLab 和美团的研究者相信,在不久的将来统一模型的性能一定能够达到单任务的水平,但同时也引起了他们的思考,目前通过拆解架构换取性能提升的方式真的是正确的吗,它是否背离统一模型的初衷,它能够提升性能的内在原因又是什么,这种方式真的是统一模型必须的吗?
「统一模型的初衷」以及「 架构解耦的缺点」
统一理解生成模型的初衷是为了通过透明化、合理化的图文交错思考过程,提高单任务的性能,例如让模型走迷宫时统一模型可以生成每一步对应的图像,可以在模型做数学题的时候给图像画上辅助线,或者是在生成一张图像的时候边画边思考有没有生成不合理的地方并且自动修正,这些都是 Uni-MMMU 等当前统一模型基准所关注,也是它本身被独立成一个领域的初衷。
再回到架构解耦的模型,例如 BAGEL 上,它本身如果要实现图文交错思考,需要经历隐空间解码到文字或者像素空间,然后再编码到隐空间的复杂过程,两个任务也几乎不在同一个模型空间中,具有计算开销大、信息丢失两大问题。虽然在当前情况下相比于其可观的性能,这个问题似乎并不显著,但是研究者认为随着研究的进行,这会是一个很大的问题。
AIA: 模型架构解耦不是统一模型必须的
为了探究清楚「架构解耦带来性能提升的内在原因」以及「探索不使用架构解耦的前提下提升模型性能的方式」,香港中文大学 MMLab 和美团联合推出了 AIA。
论文标题:Architecture Decoupling Is Not All You Need For Unified Multimodal Model论文链接:https://arxiv.org/abs/2511.22663代码:https://github.com/zhengdian1/AIA网页:https://github.com/zhengdian1/AIA-project
研究者首先通过研究不同架构的统一模型在每一层网络中跨模态交互的强度,他们惊讶地发现不管如何进行模型架构解耦,理解和生成任务在同一层网络中始终呈现负相关的关系,同时进一步验证了这个现象与输入的模态、长度和类别都没有关系,这说明是模型自发在学习如何合理地分配两个任务在每一层中的占比,从而 「缓解冲突」,这又说明架构解耦本质上并没有解决任务之间冲突的问题。
研究者进一步在最后一列可视化了现在单任务 SOTA 的模型的多模态交互模式(HunyuanImage-3.0 虽然是统一模型,但更侧重于生成效果),结果发现随着模型解耦程度的增强,其对应的跨模态交互模式会趋向于单任务的表现,这也是能够实现性能提升的主要原因。
基于这个发现,研究者设计了Attention Interaction Alignment (AIA) 损失,通过将单任务模型的跨模态交互模式作为学习目标,在训练的过程中显式地约束统一模型的交互模式。
AIA 效果如何?
研究者在 Emu3 和 Janus-Pro 这两种完全统一架构、轻微模型解耦架构上进行了实验,如下表所示,结果表明本文的方法能够在没有任何其他 trick 的情况下提升这些模型的性能,减小了与更高解耦程度模型的差距。
同时,研究者给出了使用 AIA 损失之后 Emu3 和 Janus-Pro 跨模态交互模式曲线变化,可以发现加入了 AIA 损失之后,两个模型的交互曲线都向单任务模型的表现靠近了,既证明了 AIA 损失的有效性,同时也说明了模型架构解耦不是唯一能够提高统一模型性能的方式。
当然,研究者也承认在目前情况下完全统一的方法和高解耦程度的模型之间存在很大的差距,但正如 Emu3.5 的出现,他们认为这个差距会越来越小。因此,研究者呼吁新万博体育:的人抛开表层的框架和数据配比,深入研究统一模型的任务冲突问题,寻找更优的解法。
AIA 好训吗?
由于 Emu3 只有预训练 (PT) 阶段是统一训练的,因此研究者在其 PT 权重上进行微调,而 Janus-Pro 给的是最终 SFT 微调后的权重,研究者在此基础上进行后训练。
研究者通过调整 AIA 损失与 next-token-prediction (NTP) 损失的比重来测试其微调的敏感度,结果发现训练 Emu3 的时候由于其预训练知识比较薄弱,AIA 损失在一个很大的范围内都能达到稳定收敛的效果。而在 Janus-Pro 中,由于其本身预训练知识很强,AIA 的加入非常容易影响模型训练,但在合适的比重情况下仍然能够达到不错的效果。
AIA 有什么优势?
AIA 损失的加入可以一定程度上减少现在常见的数据配比工程问题,本文的方法在生成与理解数据配比在 1:1 的情况下能够达到更好的效果,这说明在一定程度上两个任务的训练不再是冲突的,产生了协同优化的效果。
统一模型训练的正确道路是什么?
通过结合现在所有统一模型训练的问题以及本文的实验分析,可以发现不管怎样解耦模型,其始终会在统一训练的过程中动态分配不同任务在同一层的权重来缓解冲突,那这是否实际上代表了统一模型的正确行为?
另一条统一路径是移除所有可以用来区分任务的线索(即采用统一分词器、消除任务相关特殊 token、使用交错数据数据输入),迫使模型只能从输入中学习真正的统一空间。虽然这种方法或许可以解决任务间的负相关问题,但也会显著增加训练难度。
未来展望
AIA 迈出了统一模型训练原理分析的第一步,研究者希望能够有新万博体育:志同道合的研究者加入这个领域的探索。统一模型现在的理论、架构都远远没有达到成熟,需要大家共同进行探索。同时研究者也希望大家能够更加关注统一模型真正的意义,不要一味地关注当前单任务基准上的性能。
相关版本
多平台下载
查看所有0条评论>网友评论