写点什么

推荐系统 [三]:粗排算法常用模型汇总 (集合选择和精准预估),技术发展历史(向量內积,Wide&Deep 等模型)以及前沿技术

作者:汀丶
  • 2023-02-23
    浙江
  • 本文字数:4802 字

    阅读完需:约 16 分钟

1.前言:召回排序流程策略算法简介


推荐可分为以下四个流程,分别是召回、粗排、精排以及重排:


  1. 召回是源头,在某种意义上决定着整个推荐的天花板;

  2. 粗排是初筛,一般不会上复杂模型;

  3. 精排是整个推荐环节的重中之重,在特征和模型上都会做的比较复杂;

  4. 重排,一般是做打散或满足业务运营的特定强插需求,同样不会使用复杂模型;


  • 召回层:召回解决的是从海量候选 item 中召回千级别的 item 问题

  • 统计类,热度,LBS;

  • 协同过滤类,UserCF、ItemCF;

  • U2T2I,如基于 user tag 召回;

  • I2I 类,如 Embedding(Word2Vec、FastText),GraphEmbedding(Node2Vec、DeepWalk、EGES);

  • U2I 类,如 DSSM、YouTube DNN、Sentence Bert;

  • 模型类:模型类的模式是将用户和 item 分别映射到一个向量空间,然后用向量召回,这类有 itemcf,usercf,embedding(word2vec),Graph embedding(node2vec 等),DNN(如 DSSM 双塔召回,YouTubeDNN 等),RNN(预测下一个点击的 item 得到用户 emb 和 item emb);向量检索可以用 Annoy(基于 LSH),Faiss(基于矢量量化)。此外还见过用逻辑回归搞个预估模型,把权重大的交叉特征拿出来构建索引做召回

  • 排序策略,learning to rank 流程三大模式(pointwise、pairwise、listwise),主要是特征工程和 CTR 模型预估;

  • 粗排层:本质上跟精排类似,只是特征和模型复杂度上会精简,此外也有将精排模型通过蒸馏得到简化版模型来做粗排

  • 常见的特征挖掘(user、item、context,以及相互交叉);

  • 精排层:精排解决的是从千级别 item 到几十这个级别的问题

  • CTR 预估:lr,gbdt,fm 及其变种(fm 是一个工程团队不太强又对算法精度有一定要求时比较好的选择),widedeep,deepfm,NCF 各种交叉,DIN,BERT,RNN

  • 多目标:MOE,MMOE,MTL(多任务学习)

  • 打分公式融合: 随机搜索,CEM(性价比比较高的方法),在线贝叶斯优化(高斯过程),带模型 CEM,强化学习等

  • 重排层:重排层解决的是展示列表总体最优,模型有 MMR,DPP,RNN 系列(参考阿里的 globalrerank 系列)

  • 展示层

  • 推荐理由:统计规则、行为规则、抽取式(一般从评论和内容中抽取)、生成式;排序可以用汤普森采样(简单有效),融合到精排模型排等等

  • 首图优选:CNN 抽特征,汤普森采样

  • 探索与利用:随机策略(简单有效),汤普森采样,bandit,强化学习(Q-Learning、DQN)等

  • 产品层:交互式推荐、分 tab、多种类型物料融合

2.粗排

在搜索、推荐、广告等需要进行大规模排序的场景,级联排序架构得到了非常广泛的应用。以在线广告系统为例,按顺序一般包含召回、粗排、精排、重排等模块。粗排在召回和精排之间,一般需要从上万个广告集合中选择出几百个符合后链路目标的候选广告,并送给后面的精排模块。粗排有很严格的时间要求,一般需要在 10~20ms 内完成打分。在如此巨大的打分量以及如此严格的 RT 需求下,粗排是如何平衡算力、RT 以及最后的打分效果呢?


2.1 粗排的发展历史


粗排和精排有两点不同:


  • 算力和 RT 的约束更严格:粗排的打分量远高于精排,同时有更严格的延迟约束,阿里巴巴定向广告的要求是 10-20ms

  • 解空间问题更严重:粗排和精排训练的时候使用的都是展现样本,但是线上打分环节粗排打分候选集更大,打分阶段距离展现环节更远,因此粗排阶段打分集合的分布和展现集合差距相比精排更大,解空间问题也更严重。

2.1.1 粗排的两大技术路线(集合选择和精准预估)

粗排的技术路线其实就是解决粗排一般该怎么迭代的问题,由于粗排是处于召回和精排之间的一个模块,因此粗排本身的迭代会受到前后链路的制约,因此需要站在整个链路的视角来看待这个问题。纵观整个链路,粗排一般存在两种技术路线:集合选择和精准值预估。



集合选择技术


集合选择技术是以集合为建模目标,选出满足后续链路需求的集合的方法,该技术路线在召回非常典型,这其实也非常符合粗排的定位。该方法优点是算力消耗一般比较少,缺点是依赖于对后链路的学习,可控性较弱。


什么叫可控性?也就是说如果希望进行一些调整的话,由于这种方式依赖于通过数据回流对后链路进行学习,而数据回流往往比较慢,同时对数据量也有要求,可能需要后面链路的这些策略调整影响到比较大的流量之后,粗排才可以学习到,因此这种方式可控性比较弱,是偏被动的一种方式


这种技术路线有以下常见的几种方法:


  • 多通道方法:类似于召回,针对不同的目标构建不同的通道,然后分别选出不同的集合,然后再进行合并选择。

  • Listwise 方法:一般是直接建模集合的损失,典型算法如 LamdaMART。为了更好理解 listwise 算法,这里提一下 pointwise 算法和 pairwise 算法,pointwise 算法一般是点估计的方式,训练过程只考虑单条样本;而 pairwise 算法训练过程中会考虑当前样本和其它样本的相互关系,会构造这样的 pair,并在训练的过程中引入这方面的 pairwise loss,训练目标可能是正 pair 排在负 pair 的前面;Listwise 更近一步,在训练的时候会考虑整个集合,会希望整个集合的指标如 NDCG 等达到最大化,如 LamdaMART 算法。

  • 序列生成方法:直接做集合选择。一般包含集合评估器和集合生成器,算法过程如下:首先,用评估器对所有的 item 进行打分并选择一个得分最高的,作为集合中的第一个商品。接下来,再挑选第二个商品,把第一个商品和所有可能的第二个商品进行组合,并用评估器进行打分。之后,选择得分最高的集合,并持续使用类似于贪心的方式不断的搜索,最终得到一个最优的集合


精准值预估技术


精准值预估技术直接对最终系统目标进行精确值预估,其实也就是 pointwise 的方式。以广告系统为例,建模的目标一般是 ECPM,即


pCTR 是广告点击率预估,ECPM:EFFECPM:EFFECTIVE COST PerMille,每 1000 次展览可用的广告收入,ECPM 是流量端,媒体角度,Bid Request【竞价请求】


利用预估技术预估 pCTR,然后预估 bid,最终根据 ECPM 来进行排序,**在粗排的话就是取排序的分最高的 topK 作为最终的集合。**这种方式的优点是可控性强,因为是直接对整个目标进行建模,如果建模方式做了调整的话,可以直接调整排序公式,调整预估模型,对整个链路的掌控力更强。缺点就是算力消耗比较大,而且预估越准确,算力消耗也越大。

2.1.2 粗排的技术发展历史(向量內积,Wide&Deep 等模型)


粗排在工业界的发展历程可以分成下面几个阶段:


① 最早期的第一代粗排是静态质量分,一般是统计广告的历史平均 CTR,只使用了广告侧的信息,表达能力有限,但是更新上可以做到很快。


② 第二代粗排是以 LR 为代表的早期机器学习模型,模型结构比较简单,有一定的个性化表达能力,可以在线更新和服务。


其中①②可以合称为“粗排的前深度学习时代(2016 年以前)”。


③ 当前应用最广泛的第三代粗排模型,是基于向量内积的深度模型。一般为双塔结构,两侧分别输入用户特征和广告特征,经过深度网络计算后,分别产出用户向量和广告向量,再通过内积等运算计算得到排序分数,③ 称为“粗排的深度时代-向量内积模型(2016)”。



向量内积模型相比之前的粗排模型,表达能力有了很显著的提升,其优点:


  • 内积计算简单,节省线上打分算力

  • User 向量和 Ad 向量离线计算产出,因此可以做的非常复杂而不用担心在线 RT 问题

  • 双塔结构的 user 侧网络可以引入 transformer 等复杂结构对用户行为序列进行建模



然而仍然有许多问题:


  • 模型表达能力仍然受限:向量内积虽然极大的提升了运算速度,节省了算力,但是也导致了模型无法使用交叉特征,能力受到极大限制。

  • 模型实时性较差:因为用户向量和广告向量一般需要提前计算好,而这种提前计算的时间会拖慢整个系统的更新速度,导致系统难以对数据分布的快速变化做出及时响应,这个问题在双十一等场景尤为明显。

  • 存在冷启动问题,对新广告、新用户不友好

  • 迭代效率:user 向量和 item 向量的版本同步影响迭代效率。因为每次迭代一个新版本的模型,分别要把相应 user 和 item 向量产出,其本身迭代流程就非常长,尤其是对于一个比较大型的系统来说,如果把 user 和 item 都做到了上亿的这种级别的话,可能需要一天才能把这些产出更新到线上,这种迭代效率很低。


针对向量内积模型的问题,也有很多相关的改进,典型的如下面这个方法。



另外一个典型的改进方法是向量内积模型的实时化, user 向量通过线上打分实时产出,ad 向量仍然离线产出,但是更新频次增加。


通过实时打分,可以引入实时特征,实时性加强。然而实时打分使向量内积模型的 RT 和算力优势减弱,user 模型处于 RT 的约束不能设计的很复杂,而且该方法还引入了新的打分模型和 ad 向量版本不一致的问题。


④第四代 COLD,下一代粗排框架(2019)-算力感知的在线轻量级的深度粗排系统。下面将详细介绍该模型。

2.2 粗排的最新进展 COLD(框架)


前面粗排的相关工作仅仅把算力看做系统的一个常量,模型和算力的优化是分离的。这里重新思考了模型和算力的关系,从两者联合设计优化的视角出发,提出了新一代的粗排架构 COLD ( Computing power cost-aware Online and Lightweight Deep pre-ranking system )。它可以灵活地对模型效果和算力进行平衡。COLD 没有对模型结构进行限制,可以支持任意复杂的深度模型。这里我们把 GwEN ( group-wise embedding network ) 作为我们的初始模型结构。它以拼接好的特征 embedding 作为输入,后面是多层全连接网络,支持交叉特征。当然,如果特征和模型过于复杂,算力和延时都会难以接受。因此我们一方面设计了一个灵活的网络架构可以进行效果和算力的平衡。另一方面进行了很多工程上的优化以节省算力。


总结为以下几点:


  • 基于算法-系统 Co-Design 视角设计,算力作为一个变量与模型进行联合优化

  • 模型结构没有限制,可以任意使用交叉特征

  • 工程优化解决算力瓶颈

  • 在线实时系统,实时训练,实时打分,以应对线上分布快速变化

2.2.1 模型结构


① 特征筛选


精简网络的方法有很多,例如网络剪枝 ( network pruning)、特征筛选 ( feature selection)、网络结构搜索 ( neural architecture search)等。我们选择了特征筛选以实现效果和算力的平衡,当然其他技术也可以进行尝试。具体来说,我们把 SE (Squeeze-and-Excitation) block 引入到了特征筛选过程中,它最初被用于计算机视觉领域以便对不同通道间的内部关系进行建模。这里我们用 SE block 来得到特征重要性分数。假设一共有 M 个特征,ei 表示第 i 个特征的 embedding 向量,SE block 把 ei 压缩成一个实数 si。具体来说先将 M 个特征的 embedding 拼接在一起,经过全连接层并用 sigmoid 函数激活以后,得到 M 维的向量 s:


这里向量 s 的第 i 维对应第 i 个特征的重要得分,然后再将 s_i 乘回到 e_i,得到新的加权后的特征向量用于后续计算。


在得到特征的重要性得分之后,我们把所有特征按重要性选择最高的 top K 个特征作为候选特征,并基于 GAUC、QPS 和 RT 指标等离线指标,对效果和算力进行平衡,最终在满足 QPS 和 RT 要求情况下,选择 GAUC 最高的一组特征组合,作为 COLD 最终使用的特征。后续的训练和线上打分都基于选择出来的特征组合。通过这种方式,可以灵活的进行效果和算力的平衡。


注意 Se Block 仅用于特征筛选阶段,线上模型不包含该结构。


② 基于 scaling factor 的结构化剪枝


此外 COLD 还会进行剪枝,做法是在每个神经元的输出后面乘上一个 gamma,然后在训练的 loss 上对 gamma 进行稀疏惩罚,当某一神经元的 gamma 为 0 时,此时该神经元的输出为 0,对此后的模型结构不再有任何影响,即视为该神经元被剪枝。


在训练时,会选用循环剪枝的方式,每隔 t 轮训练会对 gamma 为 0 的神经元进行 mask,这样可以保证整个剪枝过程中模型的稀疏率是单调递减的。


这种剪枝方法在效果基本不变的情况下,粗排 GPU 的 QPS 提升 20%。最终模型是 7 层全连接网络。

2.2.2 工程优化

更多内容参考:https://blog.csdn.net/sinat_39620217/article/details/129049467?spm=1001.2014.3001.5501

2.3 粗排技术的总结与展望

更多内容参考:https://blog.csdn.net/sinat_39620217/article/details/129049467?spm=1001.2014.3001.5501

2.3.1 总结!

2.3.2COLD 的进一步发展以及展望

3. 相关文章推荐:

更多内容参考:https://blog.csdn.net/sinat_39620217/article/details/129049467?spm=1001.2014.3001.5501

发布于: 2023-02-23阅读数: 22
用户头像

汀丶

关注

本博客将不定期更新关于NLP等领域相关知识 2022-01-06 加入

本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!

评论

发布
暂无评论
推荐系统[三]:粗排算法常用模型汇总(集合选择和精准预估),技术发展历史(向量內积,Wide&Deep等模型)以及前沿技术_推荐系统_汀丶_InfoQ写作社区