您尚未登录,请登录后浏览更多内容! 登录 | 加入最MC

QQ登录

只需一步,快速开始

 找回密码
 加入最MC

QQ登录

只需一步,快速开始

查看: 136|回复: 0
打印 上一主题 下一主题

[【少女の茶会】] 聊聊参数量超越Google 手落地业界首个万亿参数推荐精排模型

[复制链接]
跳转到指定楼层
楼主
发表于 2021-12-8 23:22:46 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

整理|兆雨刷赞网站的相关问题可以到网站了解下,我们是业内领域专业的平台,您如果有需要可以咨询,相信可以帮到您,值得您的信赖!
[/align
精准的推荐系统模型是很多互联产品的核心竞争力,个性化推荐系统旨在根据用户的行为数据提供“定制化”的产品体验。国民级短视频A手,每天为数亿用户推荐百亿的视频,遇到的挑战之一是推荐系统模型如何精准地描述与捕捉用户的兴趣。
如今业内采用的解决方案通常为结合大量数据集和拟合参数来训练深度学习模型,如此一来让模型更加逼近现情况。G日前发布了首个万亿级模型ST,参数量达到16万亿,其速度是G之前开发的最大语言模型(T5-XXL)的4倍。然而手万亿参数精排模型总的参数量超过19万亿,规模更大,且已经投入践。下面就让我们通过手精排模型的发展史,一起揭秘它内部的的技术密码吧!
图示:
GBERT-NLP预训练模型:4亿参数量
GM开域聊天机器人:26亿参数量
GT5预训练模型:110亿参数量
OAIGPT语言模型:1750亿参数量
GST语言模型:16000亿参数量
手精排排序模型:19000亿参数量
参数个性化CTR模型-PPN
2021年之前,手A主要以双列的瀑布流玩法为主,用户同视频的交互与点击,观看双阶段来区分。在这种形式下,CTR预估模型变得尤为关键,因为它将直接决定用户是否愿意点击展示给他们的视频。彼时业界主流的推荐模型还是以DNN,DFM等简单的全连接深度学习模型为主。但考虑到某用户个体和视频的共建语义模式在全局用户的共建语义模式基础上会有个性化的偏差,如何在DNN络参数上为不同用户学习一个独有的个性化偏差成为了手推荐团队优化的方向。
在语音识别领域中,2021年和2021年提出的LHUC算法()核心思想是做说话人自适应(),其中一个关键突破是在DNN络中,为每个说话人学习一个特定的隐式单位贡献(),来提升不同说话人的语音识别效果。借鉴LHUC的思想,手推荐团队在精排模型上展开了尝试。经过多次迭代优化,推荐团队设计出一种机制,可以增加DNN络参数个性化并能够让模型速收敛。手把这种模型叫做PPN(PPN)。据手介绍,PPN于2021年全量上线后,显著的提升了模型的CTR目标预估能力。
PPN结构图
如上图所示,PPN的左侧是目前常见的DNN络结构,由稀疏特征()、嵌入层()、多神经络层()组成。右侧是PPN特有的模块,包括GNN和只给GNN作为输入的特征。其中,,分别表示,,。左侧的所有特征的会同这个特征的拼接到一起作为所有GNN的输入。需要注意的是,左侧所有特征的并不接受GNN的反传梯度,这样操作的目的是减少GNN对现有特征收敛产生的影响。GNN的数量同左侧神经络的层数一致,其输出同每一层神经络的输入做-来做用户的个性化偏置。GNN是一个2层神经络,其中第二层络的激活函数是2*,目的是约束其输出的每一项在[0,2]范围内,并且默认值为1。当GNN输出是默认值时,PPN同左侧部分络是等价的。经验对比,通过GNN为神经络层输入增加个性化偏置项,可以显著提升模型的目标预估能力。PPN通过GNN来支持DNN络参数的个性化能力,来提升目标的预估能力,理论上来讲,可以用到所有基于DNN模型的预估场景,如个性化推荐,广告,基于DNN的强化学习场景等。
多目标预估优化-基于MME的多任务学习框架
随着短视频用户的需求不断升级,2021年9月,手推出了80版本。这个版本里增加了底部导航栏,在此基础上增加了一个“精选”,支持单列上下滑的形式。这个兼容双列点选和单列上下滑的版本,旨在为用户提供更好的消费体验,加入更多元的消费方式。在新的界面下,有相当一部分用户会既使用双列也使用单列。用户在这两种页面上的消费方式和交互形式都有很大的不同,因此在数据层面表示出来的分布也非常不同。如何将两部分数据都用在模型建模里,而且用好,成为了手推荐团队一个亟待解决的问题。
手团队发现,当单列业务的场景增多后,多任务学习更加重要。因为在单列场景下,用户的交互行为都是基于给用户的视频发生,并没有像双列交互那样有非常重要的点击行为。这些交互行为相对平等,而且这些行为数量多达几十个(时长相关预估目标、喜欢、关注、转发等)。
精排模型预估目标(部分)
随着单列业务数据量越来越大,从模型层面,推荐团队尝试拆离出针对单列业务单独优化的模型。具体表现在特征层面,可以完全复用双列模型特征,只是针对单列的目标,额外添加个性化偏置特征和部分统计值特征。在E层面,因为前期单列数据量少,不能保证收敛,最初使用双列数据行为主导训练,后面改用单双列用户视频观看行为(有效播放、长播放、短播放)主导训练。在络结构层面,主要基于-络结构训练,不相关目标独占一个,相关目标共享同一顶层输出,这能在一定程度上提升目标预估效果。这个模型上线后,起初有一定的效果,但很暴露出了一些问题。首先,它没有考虑到单双列业务中分布差异,造成了学习不充分。其次,在多任务学习层面,单列场景下,用户的交互都是基于当前视频的单阶段行为,各个目标之间互相影响,模型单个目标的提升,不一定能带来线上的整体收益。
因此,如何设计一个好的多任务学习算法框架,让所有预估目标都能提升变得非常关键。这个算法框架必须考虑数据、特征、、络结构以及单列用户交互特点。经过充分的调研和践,推荐团队决定采用MME模型(M-M--E)来改进当前模型。
MME是G提出的一种经典多任务学习算法,其核心思想是把-络替换为E层,通过多个门控络在多个专家络上别针对每个目标学习不同专家络权重进行融合表征,在此融合表征的基础上通过络学习每个任务。
通过参考MME算法和上面提到的手推荐场景难点,推荐团队改造了MME算法并设计了一套新的多任务学习算法框架。具体体现在,在特征层面,进行了语义统一,修正在单双列业务中语义不一致特征,添加针对用户在单列相关特征。在E层面,进行了空间重新映,设计了,直接学习单双列映关系,帮助单双列映到统一空间分布。在特征重要性层面,设计了-,为不同业务做特征重要性选择。
通过以上点的改动,模型将输入层的表示从特征语义,在不同业务分布,特征在不同业务重要性个层面做了归一化和正则化,重新映到统一的特征表征空间,使得MME络在此空间上更好的捕捉多个任务之间后验概率分布关系。通过此项对MME的改进,模型所有的目标提升非常显著。
短期行为序列建模-T模型
在手的精排模型中,用户历史行为特征非常重要,对刻画用户兴趣的动态变化有很好的表征。在手的推荐场景下,用户的行为特征非常丰富并且多变,其复杂度远远超过视频类特征或者上下文的特征,因此设计一个能够针对用户行为序列有效建模的算法很有必要。
目前业界上对于用户行为序列建模主要分为两种模式,一是对于用户的历史行为进行,二是通过RNN之类的模型进行时序建模。在手前期的双列精排模型里,用户行为序列只是简单做作为模型输入。而在单列场景下,用户被动接收手推荐视频,而且丢失掉封面信息后,用户需要观看视频一段时间再做反馈,因此主动视频选择权降低,更加适合推荐系统对用户的兴趣做EE(EE)。
手的序列建模灵感来自于T模型。T模型是G在2021年提出的经典神经络翻译模型,后来火爆的BERT和GPT-也是基于此模型部分结构。T主要包括E跟D两部分,其中E部分对输入语言序列进行建模,这部分跟用户行为序列建模目标是非常类似的,因此手借鉴其中算法结构并对计算量进行了优化。
MME结合T建模用户兴趣序列
首先,手推荐团队使用用户的视频播放历史作为行为序列。候选的序列有用户长播历史序列,短播历史序列,用户点击历史序列等,此类列表详尽地记录了用户观看视频,作者,视频时长,视频,视频观看时长,视频观看时间等内容,完整描述用户的观看历史。其次,对视频观看距今时间做变换代替。在手的推荐场景下,用户短期的观看行为跟当次预估更相关,长时间观看行为更多体现用户的多兴趣分布,使用变换更能体现这种相关性。最后,替换--为-,并且使用当前层的输入作为。这样设计的目的有两点,首先当前用户特征,预估视频特征和特征比单独的用户行为序列提供更多信息。其次可以简化计算量,从O(***)变换为O(**+*),其中为的维度,为长度,为个数,*表征的是层维度变换为维度所需的复杂度。
改造后的T络能显著提升模型的预估能力,在离线评估上,用户观看时长类预估提升非常明显,线上用户观看时长也显著提升。
长期兴趣建模
长期以来,手的精排模型都比较偏向于使用用户最近的行为。上面已经说到,通过采用和MME模型,手的精排模型对用户的短期兴趣进行了精确的建模,取得了非常大的收益。之前的模型里,采用了用户最近几十个历史行为进行建模。由于短视频行业的特点,最近几十个历史行为通常只能表示用户很短一段时间内的兴趣。这就造成了模型过度依赖用户的短期行为,而导致了对用户中长期兴趣建模的缺失。
针对手的业务特点,手推荐团队对于用户长期兴趣也进行了建模,使得模型能对于用户长期的历史记录都有感知能力。手推荐团队发现,将用户的交互历史序列(播放、点赞、关注、转发等)扩长之后,模型能够更好的捕捉到一些潜在的用户兴趣,即使此类行为相对稀疏。针对该特点,推荐团队在之前的模型基础上设计并改进了用户超长期兴趣建模模块,能够对用户几个月到一年的行为进行全面的建模,用户行为序列长度能达到万级。此模型已经在全量业务推全并且取得了巨大的线上收益。
手用户长期兴趣精排模型结构示意图
千亿特征,万亿参数
随着模型的迭代,深度学习络的复杂度越来越高,模型中添加的特征数量也越来越多,模型特征规模的大小也制约了精排模型的迭代。这不仅会限制模型特征的规模,使得一部分特征被逐出,带来模型收敛的不稳定性,同时还会导致模型更容易逐出低频的特征,造成线上冷启动效果变差(新视频、新用户),对于长尾的视频或者新用户不够友好。
为了解决这个问题,手推荐和架构的同学针对训练引擎和线上进行改进,做到离线训练和线上的服务根据配置的特征量灵活扩展,可以支持精排模型离线跟线上有千亿特征,万亿参数的规模。特别的,新模型对于新视频跟新用户的流量分发更加友好,在新用户和新视频的指标上有显著的提升,践行了手推荐”普惠“的理念。目前手的精排模型,总特征量超过1000亿,模型总的参数量超过19000亿。
在线训练和预估服务
为了支撑推荐场景下千亿特征模型的在线训练和时预估,推荐团队针对训练框架和线上预估服务的参数服务器(PS)进行了修改。在推荐模型的在线学习中,存储E的参数服务器需要能够精准的控制内存的使用,提升训练和预估的效率。为了解决这一问题,推荐团队提出了冲突且内存高效的全局共享嵌入表(GSET,GSET)的参数服务器设计。
每个ID单独映一个E向量很就会占满机器的内存资源,为了确保系统可以长期执行,GSET使用定制的淘汰策略以控制内存占用量可以始终低于预设阈值。传统的缓存淘汰策略如LFU、LRU只考虑了体出现的频率信息,主要用以最大化缓存的命中率。策略考虑了机器学习场景下额外的信息来辅助进行特征淘汰。
在推荐系统的在线学习过程中,会有大量低频ID进入系统,这些低频ID通常在未来的预估中根本不会出现,系统接收了这些特征后可能很又会再次淘汰他们。为了防止低频ID意义的进入和逐出对系统性能产生影响,GSET中支持一些特征准入策略来过滤低频特征。同时为了提升GSET的效率和降低成本,手还采用了新的存储器件--非易失内存(IAEP)。非易失内存能提供单机达到若干TB的近似内存级别访问速度。为了适配这种硬件,推荐团队现了底层KV引擎NVMKV来支撑GSET,从而很好的确保了万亿参数模型的线上稳定性。
展望未来
据手推荐算法负责人,曾在GR担任SRM的宋洋博士介绍,短视频行业有其独特的挑战,表现在用户量多,视频上传量大,作品生命周期短,用户兴趣变化等多个方面。因此短视频推荐很难照搬传统视频行业精细化运营的做法,而需要依靠推荐算法对视频进行及时的,精确的分发。手推荐算法团队一直针对短视频业务进行深度定制和积极创新,提出了很多业界首创的推荐模型和想法,同时也给推荐工程架构团队带来了很多系统和硬件层面的挑战。
宋洋博士认为,手精排万亿参数模型是推荐系统一个里程碑式的突破,它结合了序列模型,长短期兴趣模型,门控模型,专家模型等各个方面的优点,是至今为止工业界最全面,最有效的推荐模型之一。该模型已在手的主要业务上全量上线为用户服务。在未来“算法-系统-硬件”位一体的挑战和机遇可能会有更多,希望这将更进一步推动手推荐系统在技术上的创新和突破,为用户增进体验和创造价值。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友