免费下载亚洲‘性A好视频 2’025官方最新版本下载_新万博体育

新万博体育

图片
搜索
猫眼电影 融媒体矩阵
  • 山东手机报

  • 猫眼电影

  • 大众网官方微信

  • 大众网官方微博

  • 抖音

  • 人民号

  • 全国党媒平台

  • 央视频

  • 百家号

  • 快手

  • 头条号

  • 哔哩哔哩

首页 >新闻 >社会新闻

北邮与腾讯AI Lab提出MoE-CL架构,解决大模型持续学习核心痛点

2025-09-28 14:33:17
来源:

猫眼电影

作者:

莫利埃

手机查看

  猫眼电影记者 克洛夫 报道P6F3X2M7T9QJ8L1B4WZR

在工业级大语言模型(LLM)应用中,动态适配任务与保留既有能力的 “自进化” 需求日益迫切。真实场景中,不同领域语言模式差异显著,LLM 需在学习新场景合规规则的同时,不丢失旧场景的判断能力。这正是大模型自进化核心诉求,即 “自主优化跨任务知识整合,适应动态环境而无需大量外部干预”。

为解决此问题,北邮百家 AI 团队与腾讯 AI Lab 团队提出参数高效的对抗性混合专家架构 MoE-CL,专门用于 LLM 的自进化持续指令微调。其核心设计在于 “解耦 LoRA 专家” 与 “GAN 对抗降噪” 的结合:为每个任务配置专属 LoRA 专家以保留任务特定知识,避免参数更新相互干扰;同时设置共享 LoRA 专家,通过生成对抗网络(GAN)中的任务感知鉴别器抑制无关噪声,确保跨任务知识高效且精准传递,最终实现 “知识保留” 与 “跨任务泛化” 的平衡,这也是 LLM 自进化的核心逻辑。

从实验效果来看,MoE-CL 的自进化能力已在实际场景与基准测试中得到验证。在腾讯真实业务场景 A/B 测试中,它将人工介入成本降低 15.3%;在公开 MTL5 跨域基准与工业级 Tencent3 基准测试中,其平均准确率优于现有主流方法,且在不同任务训练顺序下保持稳定,证明其无需人工调整即可适配任务动态变化。

论文标题: Self-Evolving LLMs via Continual Instruction Tuning论文链接: https://arxiv.org/abs/2509.18133代码仓库:https://github.com/BAI-LAB/MoE-CL

01 引言

在数字经济蓬勃发展的当下,海量文本数据如潮水般涌入互联网平台。例如,新闻资讯的快速更新、电商平台的海量评论等多源异构数据每日激增,面临跨领域、高时效、强精度的多重挑战。若采用传统方案,为每种文本类型单独训练模型,将消耗巨大的计算资源与人力成本;而使用单一模型处理全领域文本,又因数据分布差异导致性能失衡,难以满足业务需求。在此背景下,亟需一种既能高效处理新任务,又能保留旧任务知识的通用技术方案。为此,我们提出 MoE-CL 大模型混合专家(MoE)持续学习架构,致力于打破传统方法的局限,以实现多领域文本任务的高效协同处理。使得大模型具备自进化能力:动态适应训练数据,自主优化跨任务知识整合。

02 方法

混合专家持续学习(MoE-CL)框架聚焦多任务学习中的知识积累与任务适应难题。其核心采用 Transformer 块的 LoRA 增强技术,重点优化前馈神经网络(FFN)层,通过引入低秩矩阵降低参数更新量与计算成本,同时提升学习效率。

MoE-CL 将 LoRA 专家分为任务特定与任务共享两类:前者专攻特定任务知识,后者提取跨任务通用信息。结合生成对抗网络(GAN)分离任务特定与共享信息,确保模型获取高质量共享知识。

架构上,N 层 LoRA 增强的 Transformer 块级联提取信息,最终由门控网络融合两类信息,为任务预测提供支撑。这种设计使模型既能满足任务特异性需求,又能利用任务共性,实现高效持续学习。

图 1:MoE-CL 的整体框架。MoE-CL 通过采用带有任务感知判别器的对抗性 MoE-LoRA 架构,缓解了灾难性遗忘问题。MoE-CL 主要由两部分组成,任务感知判别器优化和指令调整优化。

2.1 任务感知判别器优化

2.2 指令调整优化

03 实验

我们在 MTL5 和 Tencent3 两个评测基准上进行了实验,并将我们的方法与几种具有代表性的持续学习方法进行比较,以展示 MoE-CL 的有效性。

3.1 主实验结果

MTL5 和 Tencent3 评测基准上的实验结果如图 2,3 所示,有以下结论:

Tencent3 评测基准上的实验结果,使用腾讯混元作为基座模型。粗体和斜体表示根据主要评估指标准确率的最优和次优。

泛化能力与稳定性突出:相比所有基线方法,MoE-CL 平均准确率显著提升,且方差极小,在复杂任务中展现出优异的泛化能力与稳定性;知识迁移优势显著:MoE-CL 在正反向迁移上表现稳定,较 MoCL 更不易受后续任务影响,验证了生成对抗网络集成至混合 LoRA 专家网络的有效性;鲁棒性表现出色:面对不同任务序列顺序,MoE-CL 通过分离共享与特定任务专家的架构设计,在 MTL5 和 Tencent3 基准测试中展现出极强的鲁棒性 ,远超其他基线方法。

3.2 验证生成对抗网络的有效性

为验证对抗性 MoE-LoRA 架构对灾难性遗忘的抑制效果,本文构建了不含生成对抗网络(GAN)的 MoE-CL 对比版本。实验结果(图 4)显示,含 GAN 的 MoE 专家架构在持续学习任务中平均性能显著优于无 GAN 版本。这是因为 GAN 能够精准将特定任务信息分配至对应低秩适配器专家,有效规避任务间知识干扰,尤其在反向迁移(BwT)指标上表现突出,有力证明了 GAN 在防止灾难性遗忘方面的关键作用。

图 4:生成对抗网络对 MoE-CL 的影响。三个指标都是数值越大表明性能越好。

3.3 离线 A/B 测试

在腾讯真实文本分类任务中,模型依据置信度得分自动判定内容样本类别:超出阈值的样本被直接标记为合规(白样本)或不合规(黑样本),无需人工介入。剔除率作为核心评估指标,直观反映自动分类样本占比,剔除率越高,意味着人工成本越低。

为验证 MoE-CL 的实际应用价值,研究团队开展离线 A/B 测试,对比其与生产算法的剔除率表现。实验数据(图 5)显示,在任务 A 和任务 B 场景下,MoE-CL 均实现显著突破。其中,任务 A 场景中 MoE-CL 剔除率高达 28.8%,较基线算法提升 15.3%,直接降低了同等比例的人工介入工作量,切实为业务场景带来降本增效的商业价值。

通过剔除率衡量的离线 A/B 测试。

04 总结

混合专家持续学习框架 MoE-CL 通过三大核心设计破局:专属任务专家防止灾难性遗忘,任务共享专家促进跨任务知识迁移,生成对抗网络保障共享信息质量。三者协同运作,使模型高效适应新任务,实现大模型持续学习中的自进化。

??时事1:偷拍欧美熟女干妞

??09月28日,由“请保持书店本色”谈起,

  全面梳理所学过的知识,结合平时作业、练习找到自己知识上的漏洞,为自己制定一个复习计划,明确自己复习什么,复习的重点是什么。

,色色2。

??09月28日,海南发布地质灾害气象风险预警 这些地区要注意,

  今天,在这个特别的日子里,我想对新老团员提出四点希望:

,黄色九九在线视频,久久这里有精品国产,Cao.网站。

??时事2:91精品国产色综合久久

??09月28日,广西一乡镇菜市场“打边炉”爆火 民众体验乡村“烟火气”,

在村干部培训班上的讲话 篇18

,A黄色网,最新三级av网站,国产色黄乱婬伦视频。

??09月28日,东西问·中法建交60周年丨这座“隐匿”于村落的古建,因何吸引中法携手保护研究?,

  “唉,看来你们两个不怎么样啊,我还以为抓到大鱼了呢。”小不点唉声叹气,蹲下身来,看着脚底下的两人,一脸幽怨的样子。

,日本免费中文网,91各种熟女国产,在线视频观看一区二区。

??时事3:99久久精品9久精品就热

??09月28日,大熊猫“福宝”出现状况异常 中国大熊猫保护研究中心回应,

  “抢回来属于我们的猎物,决不能忍下这口气!”每一位村人都心火沸腾,五脏跟油烹般,非常愤怒。

,国产美女裸舞久久福利网站,看片网址,黄色无码视频强奸视频强奸啪啪啪啪。

??09月28日,柬埔寨执政党人民党重申坚定奉行一个中国政策,

  “来不及了,它的速度太快,我们根本逃不回村子。”皮猴叫道,呲牙咧嘴,他刚才被崩飞过来的一块石头擦中了胳膊,皮破了一大块,鲜血直流。

,13p插进去,换脸三级片在线播放,国产免费A∨在线播放不卡。

??时事4:久久夜色精品国产欧美一区不卡

??09月28日,(新春走基层)农文旅融合:无锡偏远小渔村变身“近郊旅游目的地”,

  (二)完善制度体系,提升制度执行力。各银行业金融机构要建立制度管理体系,根据业务发展需要、风险特征和监管政策变化,对内部各项制度进行评价、修订和更新,确保制度覆盖所有业务领域和管理环节。严格执行各项制度,开展制度执行监督检查,提升内部控制有效性。

,黄色网站一级一级AV,久久网色,欧美亚洲日韩国产。

??09月28日,助力科研诚信阻止论文造假 施普林格·自然推出AI检测新工具,

  “族长,狻猊的寿元尽了,临死前它进入一座山洞,将那里弄的崩塌了!”有族人从前方跑来,迅疾而大声地禀报了这一情况。

,国产日本精品久久久久,黄色网站免下载,美女被操网站免费看。

责编:岳西路

审核:屠知力

责编:韩家洼

相关推荐 换一换