v3.433 安卓版
v1.972.2859.292019 安卓漢化版
v8.927.9042.872759 IOS版
v2.276 安卓免費版
v9.643.4309.394942 最新版
v7.394.8976 IOS版
v9.953 安卓漢化版
v3.32.7713 安卓最新版
v9.286.4450.962476 PC版
v1.496.5519.47277 IOS版
v2.596.6975.882348 IOS版
v9.797 PC版
v8.36 最新版
v4.820.4236.220427 安卓漢化版
v7.185.8467 安卓免費版
v5.748.637 安卓最新版
v6.968.27 安卓最新版
v4.875.8464 安卓最新版
v2.278.9261 最新版
v6.474.5585 PC版
v4.764.377.965412 最新版
v2.449 IOS版
v2.520.7901.842915 最新版
v6.988.9403 安卓版
v5.31.5630 安卓免費版
v3.854.3946 IOS版
v1.278.9754.184872 PC版
v7.289.6285.498324 安卓版
v9.92.3124 最新版
v9.843.5704.978973 IOS版
v6.51 IOS版
v7.285.8136 安卓漢化版
v9.71.1376.132453 安卓最新版
v9.544.8047.229583 最新版
v3.244.9575.169996 PC版
v9.195.7372.433357 安卓版
v9.991 IOS版
v5.302.9340.721275 IOS版
v2.886.1434.885937 最新版
v5.357.4628.230168 最新版
v5.973.9754.586127 PC版
v4.387.5393 PC版
v8.98 安卓漢化版
v8.415 最新版
v6.89.8915.149207 IOS版
v5.459 IOS版
v3.885 安卓最新版
v5.46.6199.396609 IOS版
v8.663 安卓免費版
v3.550 安卓最新版
v2.485.2905.219299 安卓版
v9.675 最新版
v9.663.8685 安卓最新版
v8.189.2546.74993 安卓最新版
v4.362.991.434732 安卓版
v4.760.8486.174041 安卓漢化版
v5.867 IOS版
v6.64 安卓最新版
v2.310.6544.628687 安卓漢化版
v1.314.744 安卓免費版
v8.799 安卓漢化版
v3.88 PC版
v9.21.7075.216807 安卓免費版
v1.837.9842.413102 安卓版
v3.494 PC版
v6.75.7674.191299 安卓版
v1.119.9895.733346 IOS版
v9.194.5692.280143 安卓最新版
v4.398.6224.282109 PC版
v7.169.3278 安卓最新版
v7.504.5961 安卓免費版
v5.2 IOS版
v9.426.4387 安卓版
v6.798.1134.324540 最新版
v4.492.7693.25287 PC版
v8.706.4259 安卓漢化版
v4.549.7759.741425 IOS版
v4.641.2297 最新版
v1.891.2478.977368 安卓漢化版
v7.61.9125.299060 安卓漢化版
新mg官方游戏网址
本文第一作者为四川大学博士研究生刘泓麟,邮箱为tristanliuhl@gmail.com,通讯作者为四川大学李云帆博士后与四川大学彭玺教授。
一张图片包含的信息是多维的。例如下面的图 1,我们至少可以得到三个层面的信息:主体是大象,数量有两头,环境是热带稀树草原(savanna)。然而,如果由传统的表征学习方法来处理这张图片,比方说就将其送入一个在 ImageNet 上训练好的 ResNet 或者 Vision Transformer,往往得到的表征只会体现其主体信息,也就是会简单地将该图片归为大象这一类别。这显然是不合理的。
图 1:传统表征学习(上)与条件表征学习(下)的比较。传统的表征学习方法只能学习到一种通用的表征,忽略了其他有意义的信息;文章提出的条件表征学习能够基于指定准则,得到该准则下表现力更强的条件表征,适应多种下游任务。
此外,在各大电商平台,用户通常根据不同的标准(例如颜色、材质或场合)搜索商品。例如,用户今天可能搜索 “红色连衣裙”,明天搜索 “正装”,后天搜索某个全新的关键词。这对于拥有庞大规模商品的平台来说,手动打标签是不现实的,而传统的表征学习也仅仅只能获取到 “连衣裙” 这个层面的信息。
要获取图片中除了 “大象”、“连衣裙” 之外的信息,一个很容易想到的方法就是进行针对性的有监督训练:基于不同的准则比如环境,进行额外的标注,再从头训练或者基于已有表征训练一个额外的线性层。但是基于这种方式,显然是 “治标不治本” 的。因为一旦有了新的需求,便又需要进行针对性的数据收集、标注和训练,需要付出大量的时间和人力成本。
很幸运的,我们处在多模态大模型的时代,这个在以前可能会很困难的问题在今天是有很多解法的。我们可以直接通过询问 LLaVA,它便会告诉我们图片在指定准则下的信息。但这种方式也还不够高效,至少在 2025 年的今天,多模态大模型的使用成本还是需要考虑的。如果需要处理 ImageNet 之类的大规模数据集或者电商平台繁杂的商品,得到其在指定准则下的信息,这个开销就比较大了。所以对大多数人来说,现如今要获取图片的多维信息,还是需要找到一个更加高效的方法。
论文标题:Conditional Representation Learning for Customized Tasks论文链接:https://arxiv.org/abs/2510.04564代码链接:https://github.com/XLearning-SCU/2025-NeurIPS-CRL
方法
我们知道,对于三维直角坐标系,一组基,比如 [(1, 0, 0), (0, 1, 0), (0, 0, 1)],其线性组合即可构建出该坐标系中的任何向量。类似的,对于颜色体系,只需要 “红”、“绿”、“蓝” 三原色即可调出所有的颜色。
受此启发,我们想到,是否对于任意一个给定的准则,也存在着一个对应的 “概念空间” 及其基?如果能在这个空间中找到一组基,那么我们只需要将原始表征投影到该空间上,理论上就能获得在该准则下更具表现力和判别性的特征。
找到给定准则对应的基,这听起来有些困难。但没关系,我们不需要很准确地找到,只需要接近它就好。
基于这个想法,论文提出了一种即插即用的条件表征学习方法。如图 2 所示,给定准则(例如 “颜色”),CRL 首先让大语言模型 LLM 生成该准则相关的描述文本(例如 “红色”,“蓝色” 和 “绿色” 等)。随后,CRL 将由 VLM 得到的通用图片表征,投影到由描述文本张成的空间中,得到该准则下的条件表征。该表征在指定的准则下表达更充分,并且具有更优的可解释性,能有效适应下游定制化任务。
图 2:所提出的条件表征学习(CRL)的总体框架。图中以通用表征空间(准则为隐式的 “形状”)转换到 “颜色” 准则空间为例。
直白地说,只需要将对齐的图片和文本表征,做个矩阵乘法就好了,甚至不需要训练。复现难度约等于:
实验
分类和检索任务是衡量表征学习性能的两个经典下游任务。论文在两个分类任务(少样本分类、聚类)和两个检索任务(相似度检索、服装检索)上进行了充分的实验验证,部分实验结果如下:
图 3:分类任务
表 1:所提出的 CRL 在少样本分类任务上的性能。
表 2:所提出的 CRL 在聚类任务上的性能。
图 4:相似度检索任务。上为 “Focus on an object”(Focus),下为 “Change an Object”(Change)。
表 3:所提出的 CRL 在相似度检索任务上的性能。
图 5:服装检索任务。
表 4:所提出的 CRL 在服装检索任务上的性能。
从上述结果中可以看出, CRL 可以作为一个即插即用的模块,与现有多模态方法相结合,在不同准则下,其得到的条件表征在下游任务中都取得了比原表征更加优异的表现,性能甚至超过了对应领域的专用方法。新万博体育:实验可参见论文。
总结
与传统的表征学习只得到单一的通用表征不同,本文提出了条件表征学习,通过获取指定准则下的文本基,并将图像表征投影到该文本基张成的空间中,即可得到该准则下表现力更强的条件表征,以更好地适应各种下游任务。
相关版本
多平台下载
查看所有0条评论>网友评论