世界杯投注金额查询,覆盖全网最新内容,实时更新不间断,精彩一手掌握_新万博体育
世界杯投注金额查询 最近更新|更新列表|字母检索|下载排行|苹果专区|分类导航

当前位置:首页电脑软件清华学生为女友殴打北航辅导员 → 世界杯投注金额查询 v3.286.4019.441392 安卓版

世界杯投注金额查询

世界杯投注金额查询

  • 电脑版下载
猜你喜欢
标签: 世界杯投注金额查询 云顶娱乐官网网站登录
详情
介绍
猜你喜欢
相关版本

内容详情

世界杯投注金额查询

投稿作者:OnePiece 团队

生成式推荐无疑是当前推荐系统领域最热门的方向,也是互联网应用中最前沿的研究主题之一。

从技术路径来看,生成式推荐主要沿着两大方向展开:一是基于大语言模型的推荐方法(LLM as Recommender),二是以生成式方式训练推荐模型(Generative Recommender)。

然而,在真实业务场景中,由于线上服务对成本极为敏感,LLM as Recommender 的落地仍面临显著挑战。这主要源于大语言模型在推理时通常需要大量显卡资源,且响应延迟较高,难以满足大规模推荐系统对高并发和低延时的严格要求。

另一方面,生成式推荐模型虽然在效率上更具优势,却难以具备类似大语言模型的推理能力。这主要是因为典型的生成式推荐模型通常基于用户历史行为序列进行训练,而该序列往往表示为一组物品 ID 序列:[item-1, item-2, item-3, …]。可以说,物品 ID 构成了推荐系统特有的“语言体系”。大语言模型之所以能够模仿人类的推理过程,很大程度上依赖于文本作为信息媒介,从而逐步解决问题。但在仅由 ID 构成的语义空间中,我们难以构造类似的“思维链条”来引导模型执行复杂推理,更无法像大语言模型那样实施上下文工程。

此外,传统生成式推荐模型(如 SasRec)通常仅接受物品 ID 或语义 ID 作为输入,不支持多模态或手工特征的引入。这一限制使得推荐系统长期积累的“特征工程”经验难以发挥价值,同时也制约了模型效果的进一步提升。

在这一背景下,来自 Shopee 的傅聪技术团队联合人大高瓴学院提出了一种全新的生成式推荐模型——OnePiece 范式,这是业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架!

论文链接:http://arxiv.org/abs/2509.18091

该范式的核心创新包括三个方面:针对物品 ID 序列特点专门设计的上下文工程策略;基于隐式推理的块状推理(block-wise reasoning)技术;以及通过渐进式多目标训练强化推理过程监督的学习机制。

目前,OnePiece 已在 Shopee 个性化主搜索场景上线,并取得效果提升。这一实践不仅验证了生成式推荐在工业场景的可行性,更为构建通用生成式推荐模型迈出了关键性的第一步。

核心方法

LLM 的成功不仅仅源于其优秀的 scaling law,也源于上下文工程、推理能力。从真实系统应用角度思考,推荐模型需要实现极致的“性价比”,也就是实现一个大小适中,但能尽可能吸收 LLM 领域成功经验的模型。因此,生成式推荐模型不能过度依赖 scaling law,即膨胀模型参数来获取增量收益,也需要迁移上下文工程、推理等相关成功经验到推荐领域。

首先,从上下文工程角度看,研究团队主要利用的是 LLM 基于上下文工程的指令(prompt)做(test-time)few shot learning的能力。而 few shot learning 用大白话讲就是举例子,希望模型能获得举一反三的能力。而这种数据,后来也逐渐被固化到训练数据中,被称为 Instruct Following SFT。放到以 “item ID” 为语言体系的推荐数据上,可以举出的“例子”,就是一些用户可能会交互的“锚点物品序列”来实现。例如,在 Shopee Search 场景,他们把用户们在某个关键词下面的高频点击商品序列、高频下单商品序列,作为“样例”拼接在用户自己的交互序列之后,通过引入 domain expert knowledge 的方式引入一些特殊的 inductive bias。

他们提出了上下文工程框架不只有“锚点序列”,新万博体育:细节如下图:

其中:

Interation History(IH):就是常规理解的用户行为历史。

Preference Anchors(PA):根据工程师的领域知识,构造的锚点序列,辅助引导预测和思考方向。

Situational Descriptor(SD):一些表达场景或其它异构信息的特殊 token,一般放在序列末尾聚合信息,例如在搜索场用到的 user token、query token 等。

Candidate Item Set(CIS):潜在目标候选物品的集合,这个是 ranking 模式下特有的,也是相对于召回模式的优势所在,ranking 模式下,候选物品对模型可见,可提供新万博体育:上下文信息。

为了能够自然融合“特征工程”的知识,他们在每个 token 位置上叠加了 item ID 以外特征信息,用简单的 adapter(MLP)来压缩到一个 token 位置上:

其次,新万博体育:推理,他们参考了近期在 LLM 领域开始有关注度的一个话题“隐式推理”。顾名思义,这种推理方式不是在文本上将思考过程描述出来,而是在隐藏表征空间(latent space)内进行推理。具体来说,就是每一步推理的时候,都直接把上一步输出的 item latent embedding 信息直接复制,放到输入序列后面,让 transformer 继续运算:

这样的推理技术的好处是,可以用极少的 token 完成思考过程,对在线服务几乎不增加负担。

最后,他们也发现隐式推理的一个明显的短板,那就是推理过程不受监督。因为隐式推理是直接将模型的输出和输入循环对接到一起,他们就没办法控制中间的推理过程,也就不知道模型在想什么,所以,他们定义了一种渐进式的监督训练方式。通过利用推荐系统丰富的用户反馈来为隐式推理提供过程监督,例如用户的点击、加购物车、下单行为:

值得注意的是,在推理的过程中,他们要求“前面的思考步骤”看不到“后面的思考步骤”,所以形成了上图中的 attention mask。同时,为了增加推理的信息处理带宽,避免出现单 token 推理的信息瓶颈,他们同时选择前文中的多个 token 向后进行“推理”。

实验效果

为了深度分析 OnePiece 的效果,研究团队进行了详细的对比和 Ablation。

从 Table2 中可以看到,Shopee 的 DLRM 基线(传统深度学习推荐模型)是一个很强的 baseline,naive 的生成式推荐是难以 PK 的。

进一步地,PA 是通过上下文工程引入额外的 domain knowledge,这种手法是模型backbone 无关的,HSTU 和 ReaRec 都可以从中受益。

OnePiece 相对于ReaRec+PA 的提升,主要来源于 block-wise reasoning 带来的信息带宽收益和渐进式的训练策略。

从 Table3 中可以看出,side info 对模型效果有巨大影响。此外,延长、优化 PA 序列呈现了一定程度的 scaling law,SD token 对收拢、聚合全局信息有重要作用,上下文工程框架中的每个组分都能够提升效果。

表 4 和 5 说明双向注意力在搜推广范式下更有优势。这其实比较容易理解,目前主流的搜推系统的用户交互模式依然是“一次请求返回一个页面”的方式,GR 模型不会依赖自己生成的 token 逐步解码,每次请求来了以后,生成的过程都是“一锤子买卖”。因此,不存在解码性能压力的前提下,对 pre-filling 部分的序列施加双向注意力可以更好的聚合信息。

此外,多步推理有 scaling 的效果,但效果逐渐收敛。渐进式引导相比于只监督最后一步更有效。值得注意的是,对于 ranking 模式下,candidate item 在attention mask 内互相“可见”非常重要。

研究团队在 Shopee 主搜场景进行了实验,在召回阶段和 prerank 阶段两个正交的实验层进行了在线 AB 实验。

在召回阶段,他们将 OnePiece 召回替代了原有的 DeepU2I 召回,取得了 1.08% 的 GMV/user 增长;在 prerank 阶段,他们用 OnePiece ranking model 替换了原有的 DLRM model,取得了 1.12% 的 GMV/user 增长和 2.9% 的广告收入增长,可以说是相当大幅度的提升。

值得注意的是,他们对 OnePiece 召回进行了深度数据分析拆解:

“新上马”的 OnePiece 召回,相对于其它召回路来说,可以说是碾压式覆盖。通过优化、平衡上下文工程中的 IH 和 PA 序列,OnePiece 在覆盖了文本召回曝光的 60%+ 商品的同时,覆盖了个性化导向召回(如 SwingI2I)的 70%+。这在以往的召回迭代的经验下是几乎不可能的事情,以前要么是侧重个性化但相关性不足、损伤体验,要么是侧重相关性但个性化不足,损伤效率指标。相比于DLRM 的 U2I 召回,OnePiece 贡献了 10% 的独立曝光和 5.7% 的独立点击:

这说明 OnePiece 选出来的内容,通过了下游粗排、精排、重排的重重考验,获得了用户的认可,在 Explore&Exploit 这个推荐经典问题上实现了难以置信的平衡,证明了推理模型的强大外推能力。

未来工作

研究团队表示,OnePiece 是他们在 One For All 的通用推荐模型上的一次初步探索,证明了可以通过特殊的上下文工程和推理模式,引导模型的预测方向。OnePiece 1.0 证明,“提示词优化”可能会成为搜推广技术栈下的一个全新方向,OnePiece 2.0 将会在 General Recommender Model 的探索上更进一步,尝试用一个模型来建模多场景和多召回策略:

此外,OnePiece 1.0 虽然挖掘出了生成式推荐 style 的新型推理框架,但它也有着显而易见的劣势,即推理步骤和渐进多任务系统的绑定,研究团队会探索可变长的推理形态,充分挖掘序列推荐下真正的 test time scaling law。

新万博体育:详细内容,请查看原论文。

相关版本

    多平台下载

    查看所有0条评论>网友评论

    发表评论

    (您的评论需要经过审核才能显示) 网友粉丝QQ群号:766969941

    查看所有0条评论>>

    相关软件
    博鱼电竞 环亚币游 世界杯下注是什么意思 必赢亚洲手机端官网下载 小金体育 m6米乐网官网主页 贝博体育官网入口网址 威尼斯人mx极速版 国际棋牌 开博体育官方下载安装 巴黎人电玩赌博 世界杯网站回放 必发电子网投 九州体育平台首页 最新线上平台 德州app哪个还可以玩 伟德app链接 澳博体育官网登录 必博下载地址 AG真人在线注册 火狐的网址是多少 im电竞好玩吗? 电子娱乐网站 华体会登录界面 北斗娱乐棋牌 优博体育官方 博鱼体育怎么样 天博怎么注册 皇冠体育文网 凯时首页登录 龙王捕鱼官方 球探足球即时比分即时比 必赢最新域名 一样发 云顶国际真人投注 亚星手机版登陆 世界杯投注平台 知乎 网投体育平台合集 金源网投 维多利亚网络网站多少 j9九游会老哥俱乐部客服 澳门威尼斯人现金充值 黄金岛官方 让一球是什么意思 玩二八杠有什么技巧 im体育在哪玩 365bet手机版欧洲 im体育网址是多少 KU体育APP 尊龙在哪注册 水晶宫网站 完美体育官网登录 澳门威斯尼斯人备用 亚新最新地址 ASIA GAMES 凯时公司 a8体育app官方 尊龙官网是多少 环球app下载 云顶娱乐手机版登 必威网站官网下载 赢咖III登录 葡京优惠活动网站 18BET体育网站 大富豪官方游戏 新万博官网登录 多宝体育平台 火狐体育网页登录 森林舞会的游戏 hg2088官方 九游会是不是AG 网上直营赌博 免费送2000试玩金 星速官网下载 球探比分苹果下载安装 二八杠线上官网 澳门威尼斯人游戏登入 伟德游戏APP m88体育平台 网赌网站有哪些 玖富娱乐官方下载 万豪游戏厅官网首页 皇冠现金注册 大富豪网赌游戏 伟德BV网页版 斗牛明牌抢庄 万博maxbextx官网网页登陆 百姓彩票官网平台 英皇国际在线真人打 百老汇官方下载 乐鱼平台app 凯时国际娱乐 智博体育官网 英皇体育注册送18 1382cm太阳在线玩游戏 世界杯滚球 官方网站 赢爵棋牌安卓版炸金花 财富快车 雷速体育ios扫码下载 千赢国际在线官网 网络游戏打鱼 腾讯世界杯投注网 乐鱼电竞平台怎么样 365bet官网论坛 尊龙注册App ag8真人注册 ag真人最新登录网址 im体育平台登陆 沐鸣娱乐 星际线上娱乐网 皇牌空战6 老虎游戏中心 AG亚游集团APP 捕鱼软件送分可上下分 爱博在线试玩 天博app下载地址 天博体育appios m88体育手机登录 PG麒麟送宝 bet36最新地址
    热门网络工具