基于火山引擎云搜索服务的排序学习实战
排序学习(LTR: Learning to Rank)作为一种机器学习技术,其应用场景非常广泛。例如,在电商推荐领域,可以帮助电商平台对用户的购买历史、搜索记录、浏览行为等数据进行分析和建模;可以帮助搜索引擎对用户的搜索关键词进行分析建模;可以为广告主提供最精准和最有效的广告投放方案;在金融风控领域,排序学习可以帮助金融机构分析客户的信用评级和欺诈风险,提高风控能力和业务效率。
原理介绍
一般的搜索引擎服务,其搜索过程包含了两个阶段,即召回+排序。如火山引擎云搜索服务,通过用户输入的文本段作为关键词,使用 BM25 打分算法,遍历数据库并挑选出分数最高的文档排好序后再返回展示给用户。由于 BM25 算法模型考虑的因素主要是文本的词频、逆文档频率等。因此搜索结果的排序仅仅取决于它所检索的文本的相关性,这在大部分场景下都是够用的,但是有些应用场景用户则想要实现相关性更优的个性化推荐效果。
为了达到这个目的,需要在已有召回+排序的基础上,额外引入重排阶段。相比较于前两个阶段,第三阶段考虑的因素则偏向于用户行为,通过用户点击、收藏、购买等反馈特征,引入机器学习算法,针对特征与反馈自动学习并调整参数,预估用户对于返回结果的偏好,最终实现个性化搜推结合的效果。整个训练排序过程,也被称为排序学习(LTR: Learning to Rank)。
以火山引擎云搜索服务为例,为了实现完整的三阶段流程,存在内置和外挂两种方式:
内置方式,是将重排阶段以插件的形式安装到火山引擎云搜索服务中,用户输入查询,得到搜推结果。整个流程对业务保持透明,业务只需与搜索引擎完成交互。相关实现为:elasticsearch-learning-to-rank 插件等。
外挂方式,是指在业务侧,先通过火山引擎云搜索服务查询得到召回+排序前两阶段结果,然后将中间结果作为输入,再与 LTR 模型工具进行交互,最后返回搜推结果。整个流程需要业务侧自行处理中间结果,完成与搜索服务和 LTR 模型工具的交互,灵活性更高,对应的开源工具有:metarank 等。
本文的后续内容将利用火山引擎云搜索服务结合 Metarank 项目来演示如何实现用户的个性化搜推实践方案。
环境准备
登录火山引擎云搜索服务,创建实例集群,集群版本选择 7.10。
Python Client 关键依赖准备
数据集准备
选择 Metarank 文档中推荐的 RankLens 数据集,其中原始的数据集在 dataset 路径下,将其解压后即可得到约 2500 条数据,每条数据包含电影海报、演员、评分等信息。
搜推结合实践操作
连接
火山引擎云搜索服务
登录火山引擎云搜索服务,选择刚刚创建好的实例,选择复制公网访问地址(由于 Metarank 运行在本地机器上,为了连接云搜索服务,需要打开公网访问,如果 Metarank 运行在用户 VPC 里则不需要):
Metarank 服务
本地启动 Metarank 服务,数据集参数(--data)指定转化后的数据集,包括数据的元信息及用户点击率信息;配置文件参数(--config)指定模型配置等,参数及文件下载可参考 https://docs.metarank.ai/introduction/quickstart
写入
将 RankLens 数据集写入火山引擎云搜索服务
查询
文本查询 + Metarank 重排
点击反馈
将用户的偏好反馈写入 metarank
查询结果展示
版权声明: 本文为 InfoQ 作者【字节跳动云原生计算】的原创文章。
原文链接:【http://xie.infoq.cn/article/31b81683d65b5d7a532416c80】。文章转载请联系作者。
评论