新智元报道
编辑:LRST
【新智元导读】在NeurIPS 2025论文中,来自「南京理工大学、中南大学、南京林业大学」的研究团队提出了一个极具突破性的框架——VIST(Vision-centric Token Compression in LLM),为大语言模型的长文本高效推理提供了全新的「视觉解决方案」。值得注意的是,这一思路与近期引起广泛关注的DeepSeek-OCR的核心理念不谋而合。
在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。但现实世界中的许多任务——如长文档理解、复杂问答、检索增强生成(RAG)等——都需要模型处理成千上万甚至几十万长度的上下文。
与此同时,模型参数规模也从数十亿一路飙升至万亿级别。
在「上下文长度激增」与「模型参数量膨胀」的双重挑战下,Token压缩不再是优化项,而是必需品。
若不能有效缩减输入规模,即便最强大的大语言模型,也难以高效处理我们需要它分析的海量信息。
南京理工大学、中南大学、南京林业大学的研究人员提出VIST(Vision-centric Token Compression in LLM)框架,正是为了解决这一痛点。
论文链接:https://arxiv.org/abs/2502.00791
研究团队早在一年多以前NeurIPS 2024就开始探索——如何让模型像人类一样,以视觉的方式更高效地理解长文本。
论文链接:https://arxiv.org/pdf/2406.02547
人类阅读文章时,不会逐字读完每一个词。
「的」「了」「和」这些功能性高频词,几乎是被大脑自动略过的。真正让我们停下来的,是那些承载意义的低频词——名词、动词、数字等。
VIST 的核心思想,就是让大模型也具备这种「选择性阅读」能力。
它设计了一种模仿人类「快–慢阅读通路(Slow–Fast Reading Circuit)」的视觉化压缩机制,让大模型在理解长文本时,既能快速扫读,又能深入思考:
快路径(Fast Path):将远处、相对次要的上下文渲染为图像,由一个冻结的轻量级视觉编码器快速提取显著性语义;
慢路径(Slow Path):将关键的近处文本直接输入 LLM,用于深层推理与语言生成。
这种「视觉+语言」的双通道协作,就像人类的眼睛与大脑——一边扫视全局,一边聚焦要点,深度思考。
VIST让模型真正具备了「像人一样速读」的能力。
凭借这一设计,在处理相同文本内容时,VIST所需的视觉Token数量仅为传统文本分词所需Token数量的56%,内存减少了50%。
用「视觉压缩」解锁长文本理解
早期的LLM主要通过tokenizer把文本拆分的离散token输入给LLM去处理,这种范式带来了很多好处如高度语义化。
但是已有研究发现,经过大规模图文配对数据预训练,CLIP等视觉编码器能够自发掌握 OCR 能力,这使它们可以直接理解文本图像内容,为长文本的视觉化处理提供了强大工具。
VIST则借鉴了人类高效阅读的技巧,提出了一种全新的快–慢视觉压缩框架,用视觉方式处理长文本,让模型既能快速扫读,又能深度理解。
快路径(Fast Path)
将次要的长距离上下文渲染成图像,由轻量级视觉编码器处理;
通过 Resampler 将视觉特征进一步压缩为4倍;
压缩后的视觉特征再通过cross-attention与LLM的主输入整合。
慢路径(Slow Path)
对近处或核心文本直接交给LLM处理,进行深度推理和语言生成。
这种「扫视远处,专注近处」的方式,模拟了人类阅读的自然策略,让模型在长文本场景下既高效又精准。
概率感知视觉增强
教模型学会略读
虽然视觉编码器(如 CLIP)非常强大,但它们主要在自然图像上训练,对于渲染文本的理解能力有限。而且,长文本中往往充斥大量冗余信息,如果不加选择地处理,浪费算力,还会被干扰得抓不住重点。
为此,VIST引入了一个巧妙的机制——概率感知视觉增强(PVE, Probability-informed Visual Enhancement),教模型「略读」,抓住关键信息,忽略冗余词。
在训练中,PVE采用基于频率的屏蔽策略(Frequency-based Masking Strategy)把高频但信息量低的词(如英文中的 「the」、「with」)掩码而重点保留低频、高信息量词如名词、动词、数字等核心内容。
这些经过语义优化的文本嵌入(embeddings)有效指导Resampler从文本图像中提取最重要的语义信息,让视觉压缩模块更高效、更精准。
视觉压缩的极大潜力
在开放域问答(Open-domainQA)任务以及11 个 In-Context Learning(ICL)基准任务上,VIST 显著优于基于文本编码器的压缩方法 CEPE。
即便在极端条件下——所有篇章仅通过视觉编码器处理——VIST仍能在开放域问答任务中达到与TinyLlama相当的性能,充分显示了视觉压缩在长文本处理中的可靠性。
此外,VIST在处理相同文本内容时,所需视觉 Token 数量比传统文本 Token 少56%(压缩比约为2.3,从 1024 个文本Token压缩到448个视觉 Token),同时显存使用减少50%,极大提高了计算效率。
让大模型「用眼睛读文字」
VIST利用轻量级视觉编码器,将冗长的上下文信息压缩处理,为大语言模型提供了一条高效、低成本的新路径。
更妙的是,视觉编码器还能充当视觉文本分词器(Visual Text Tokenization),带来四大优势:
1. 简化分词流程传统文本分词器依赖复杂规则和固定词表,通常涉及近十步人工预处理(如小写化、标点符号处理、停用词过滤等)。
视觉编码器直接将渲染后的文本视作图像输入,无需繁琐预处理,处理流程更直接高效。
2. 突破词表瓶颈传统分词器在多语言环境下容易受词表限制影响性能,而视觉编码器无需词表,统一处理多种语言文本,大幅降低嵌入矩阵和输出层的计算与显存开销。
3. 对字符级噪声更鲁棒视觉编码器关注整体视觉模式,而非单个 Token 匹配,因此对拼写错误或低级文本攻击具备天然抵抗力。
4. 多语言高效性尽管本文主要针对英文,视觉文本分词器在其他语言中同样高效:与传统文本分词相比,可减少62%的日文Token、78%的韩文Token、27%的中文Token,在处理长文本时优势尤为显著。
结语与未来展望
VIST 展示了「视觉 + 语言」协作在大模型长文本理解中的巨大潜力:
它让大模型能够「像人一样读」,快速扫视冗余信息,同时专注于关键内容;
它为多语言、长文本、甚至多模态场景提供了高效处理方案。
未来,视觉驱动的 Token 压缩可能会成为长上下文 LLM 的标准组件。 随着模型规模不断增长,这种「先看再读」的策略,将帮助大模型在保证理解能力的同时,大幅降低计算成本,为多模态智能理解铺平道路。
参考资料:
https://arxiv.org/abs/2502.00791
《体彩彩票下载官方网站》,《Q8X2R7L1T4J5M9B6W3》bet体育滚球在线
“世界杯博彩正规网站”
揭密皇冠hg国际真人游戏骗局
……
10月27日
“世界杯信誉买球平台”吧友锐评角色服装
↓↓↓
10月27日,首届钱江源公路自行车赛收官,永利国际彩票网站,可来博,皇冠比分Vs90,诺贝尔娱乐城
10月27日,老易、郎朗沈阳见,没想到“春晚等着你”还是连续剧,先锋总刚B,澳门皇冠皇版,澳门新手机版,刺激战场国际服怎样才能有真人
10月27日,“世运蓉港行”主题列车发车警惕掼蛋沉迷助长消颓之气 ,维多利亚国际线路检测,188BETAPP,十大赌场手机注册,庄和闲网站
10月27日|网友分享的登山路为何“行不通”?|博狗官网网站|立博体育下载|葡京会下载安装|凤凰v02安卓直装下载
10月27日|制造业大市苏州探索以服务促发展|皇冠线上真人|银河游戏开户|大富豪最新链接网址|博天下娱乐
10月27日|台学者:台湾主流民意希望两岸和平|火狐可靠吗|mg电子高爆平台|凯时k8国际|银河手机下注……
10月27日,多地博物馆接待量创历史新高,“博物馆热”如何延续?,亿万先生手机版,开博体育app下载安装,大赢家手机APP,ayx乐鱼app官方下载
10月27日,钢琴家郎朗获聘浙江省第二届反诈宣传形象大使,六合内部A加大版,云顶娱乐手机版登录地址,凯发娱乐官网主页,现金赌钱
10月27日|独家视频丨习近平:中国式现代化,必将为世界发展带来新的更大机遇|bet365官网买球|百家乐网页版|pg电子怎么卡免费旋转|胜利足球
10月27日,著名作曲家黄准逝世 曾为《红色娘子军》写就经典旋律,大富翁手游官方网站,ag厅真的吗,万象城,哪个平台有斗牛
10月27日,兰州启“万人阅读”活动,抢庄牛牛棋牌游戏官网,太阳集团娱乐网登录,KU游娱乐登录平台页面,世界杯买球app最新消息
10月27日,探访北京中法大学旧址:见证两国友谊活力 不断架设新的友谊之桥,线上365bet手机投注,电玩捕鱼机,leyu乐鱼开户网址,ManBetx快速登陆
10月27日|沉浸式体验潮剧助推非遗传承|真钱官方ag|凯发娱乐网页版下载|九州最新地址|全球赌场排名榜二十名
10月27日|三联韬奋书店将落户内蒙古乌海 助力民族地区全民阅读事业|客户端巴黎人|能提现娱乐平台|b0SS体育|万博max手机登陆
10月27日|海峡两岸少儿美术大展15载 千幅画作“一起”绘未来|网上购彩彩票快3网|澳门电子网站大全|天博体育安卓下载官网|我发168手机登录
章鱼的秘密,我发崩铁限定角色大伙们来打分|孙杨复出首秀夺小组第一 晋级400米自由泳决赛|千金点特A|世界杯球彩怎么买|亚星管理平台登录|金沙电玩城娱乐
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺