写点什么

实体链接在 OPPO 小布助手和 OGraph 的实践应用

发布于: 2021 年 10 月 12 日
实体链接在OPPO小布助手和OGraph的实践应用

1 问题背景


精准直达的知识问答能力对营造小布“懂知识、更懂你”的形象非常重要。在语音助手场景,经常会出现一词多义或者口语化表达等问题。例如:李白出装,李白的诗,播放李白。第一李白是指游戏角色,第二个是指诗人李白,第三个是指歌曲李白。如何精确识别用户所指、给出正确的答案是小布助手面临的挑战。



知识图谱是让机器理解客观世界的基石,拥有极强的表达能力和建模灵活性。目前 OPPO 自建知识图谱 OGraph 已经积累了数亿实体和数十亿关系。接下来让我们看看小布和 Ograph 将如何碰撞,通过实体链接技术解决实体歧义问题,帮助小布做能听、会说、更懂你的智能助手。


图:小布助手KBQA流程


2 任务介绍


实体链接是 NLP、知识图谱领域的基础任务,即对于给定的一个中文文本,将其中的实体描述(mention)与给定知识库中对应的实体进行关联的任务。


2009 年在 TAC 会议上第一次提出实体链接任务,2014 年深度学习流行之前都是通过统计特征和基于图的方法进行实体链接。2017 年提出了 Deep Joint 方案,使用 Attention 结构进行语义匹配来实体消歧。后面该团队通过模型结构创新,实现了同一个模型同时实体识别和消歧,消歧依旧使用 Attention。2018 年提出了 Deep Type 方案,将消歧问题转化为实体分类,得到实体类别后,通过 Link Count 确定要链接到的实体。2020 年预训练语言模型开始流行,Entity Knowledge 方案借助大量的语料和强大的预训练模型,用序列标注的方式进行实体链接。


图:实体链接发展历程


3 技术方案


实体链接通常会被拆分为三个子任务:实体识别、候选实体召回、实体消歧。


图:实体链接流程示意


3.1 实体识别


实体识别的作用是识别出 query 中的实体描述(即 mention),例如李白所在朝代皇帝是谁中的李白即为要识别的 mention。在进行通用领域实体识别时,实体量级大、类型多、说法多样,因此方案要兼顾效率和泛化。


小布助手开发了基于词典的实体识别使用自研匹配工具 Word Parser,该工具无论是在性能还是功能都较开源工具有优势。



实体链接中并不关心实体类型,因此实体识别可以使用 B/I 标签或者指针标注的模式,同时为了提升输入信息的丰富程度,引入词汇信息作为特征补充,试验了 Lattice LSTM 和 FLAT 等结构,实体识别效果提升约 1%。


图:FLAT示意


3.2 候选实体召回


候选实体召回的目标是用 mention 召回所有可能的候选实体,但是线上存在大量昵称、同音字、口语化表达,例如:卷福、抖森这类昵称别名,而且还会出现表述错误,例如丰满奥特曼、拖拉机奥特曼、倩雅集,如果缺乏别名到正确实体的映射,就无法完成召回。在语音场景没有用户直接反馈,无法像搜索一样通过用户点击进行挖掘,因此实体别名的挖掘相当有挑战。


图:实体别名示意


根据问题的特点,我们构建了两套方案,通用别名挖掘采用信息抽取为主模式生成为辅的挖掘流程,充分利用 OGraph 中的描述信息、别名信息和关系信息,从中挖掘别名。


图:通用别名挖掘流程


针对用户输入错误、同音字、近音字这类别名挖掘,小布助手开创性的构建了基于特征聚类的别名发现流程。挖掘步骤如下:


1)Query 筛选:采用领域关键词过滤、搜索点击日志筛选的方式,从用户搜索 query 和小布助手线上 query 中筛选出可能包含待挖掘别名的 query。


图:错误别名示意


2)实体识别:使用实体识别技术,从待挖掘 query 中识别实体。实体识别模型采用通用实体识别模型+垂域 finetune 的方式得到。


3)领域特征构建:由于实体识别直接得到的实体别名准确率不高,而且没有和实体标准名关联起来,需要构建领域特征,将挖掘的实体别名与实体标准名关联。根据场景特点,我们选取了部首偏旁特征和拼音特征。


4)特征聚类:使用聚类的方式来关联挖掘的实体别名与实体标准名。通过使用这套挖掘方案,得到数十万实体别名,准确率 95%+,解决了线上高频的别名问题。


图:基于特征聚类的别名发现流程


3.3 实体消歧


实体消歧是实体链接中最关键一步,消歧的本质是排序,通过对候选实体进行排序,得到每个候选实体的排序分数,选出最终的结果。实体消歧有下面主要问题:


1)在语音助手场景下多为短文本,因此上下文特征缺失,需要额外构造特征帮助消歧。


2)消歧时不能仅仅通过语义特征来消歧,还要充分考虑全局消歧特征,例如“刘德华给学员讲课,把炸弹比喻成姑娘的手”中的刘德华,从语义上来讲清华大学教授刘德华更符合,实际上是演员刘德华和《拆弹专家》的文章标题。



3)图谱中存在未对齐实体,导致模型消歧困难,同时容易出现语料标注错误。例如中国和中华人民共和国在有些开源图谱中是两个实体,导致训练集里有些正确标签中国这个实体,有的正确标签为中华人民共和国这个实体。


针对上面提到的问题,我们从数据准备、模型选型、模型优化等方面着手,通过针对性的优化解决这些问题。


3.3.1 数据准备


构造消歧样本时,我们提供尽可能多的信息给模型,样本由三部分构成:query 样本、实体样本和统计特征。   


query 样本构造:query 样本输入时关键时将 mention 的位置信息传入模型,让模型能判断 mention 在 query 中的具体位置。因此引入标识符 #将,在 mention 两边加入统一的标识符“#”,样本如下:


图:query样本示意


实体描述样本构造:实体样本中需要包含待消歧实体的特征,我们在第一版实体样本中设计了 mention 和标准名的拼接表示标准名和 mention 是否相同这一特征;构造了“类型:实体类型”这种描述,提供实体类型信息;同时加入了实体描述和图谱的三元组信息。在第二版中,我们将标准名和 mention 是否相同的特征直接转化成文本描述“名称相同/不同”,同时加入了“非/是主义项”这一特征,通过优化特征表达方式,模型表现提升约 2%。


图:实体样本示意


统计特征样本构造:为了避免消歧模型只关注语义特征,我们统计了 query 和实体样本共现特征、流行度、丰富度、mention 共现特征等统计特征,作为模型输入,辅助进行全局消歧。


图:统计特征示意


3.3.2 模型选型


排序学习中,有三种常见模式 pointwise,pairwise 和 listwise,对于实体消歧这种只需要 TOP1 的排序任务,并不需要考虑候选实体之间的顺关系,只考虑全局相关性,因此我们选取了 pointwise 方法。


图:排序学习模型示意


总结前人的消歧模型,Deep Joint 从排序出发,Deep Type 从分类出发,都取得了较好的效果,说明分类和排序任务都对消歧有帮助,因此我们根据任务特点,设计了多任务模型框架,同时进行排序和分类,两个任务共享模型参数,一起训练,损失函数一起优化,通过共享排序任务和分类任务的信息,模型可以有更好的表现,多任务损失函数如下。



为了更好的融入统计特征,我们直接将统计特征 embedding 拼接到特征向量后面进行排序。


图:实体消歧模型示意


最终我们模型结构如下,将 query 样本和实体样本拼接,输入预训练语言模型,将 CLS 位置的向量和统计特征 embedding 拼接后作为特征向量。排序任务将特征向量输入全连接层,然后经过 tanh 最终输出[-1,1]区间的分数,分数越高代表越有可能是目标实体。分类任务将特征向量输入全链接层,经过 softmax 层输出各个分类的得分。


通过试验基于多任务的实体链接模型效果整体上优于单任务模型,具体 F1 见下表。



3.3.3 模型优化


为了了解模型到底关注哪些输入特征,使用互信息的可视化方法对模型进行可视化,对各个词的重要程度进行了可视化,颜色越深重要程度越高。通过可视化发现,模型倾向于关注实体的类型和用来区分实体的片段,例如示例 1 吃得慢、食物、吃法、火腿肠,示例 2 中的珊迪、海绵宝宝、开关电源品牌。示例 3 种的人物、种族、梦三国等,可以看到多任务模型关注的特征都是对消歧有帮助的。



图:模型可视化


置信学习(Confident Learning,CL)是一种识别标签错误、表征标签噪声的算法框架。针对标注错误的问题根据置信学习的思想,在原始数据上用 n-flod 方式训练了 5 个模型,用这些模型预测原始训练集的标签,然后融合 5 个模型输出的标签作为真实标签,再从原始训练集中清理真实标签与原标签不一致的样本,我们清理的样本占比 3%,其中标签错误的 80%+。


图:对抗训练流程示意


对抗训练是指在模型的训练过程中构建对抗样本,参与模型训练的方法。正常训练过程中,如果梯度方向陡峭,那么很小的扰动都会产生很大的影响。为了防止这种扰动,对抗训练在模型训练的过程中使用带扰动的对抗样本进行攻击,从而提升模型的鲁棒性。可以看到 FGM 和 PGD 两种生成对抗样本的方式效果提升都比较明显。



4 技术应用

4.1 小布助手中的应用


图:小布助手KBQA流程示意


在小布助手场景中,用户对语音助手的智能程度抱有很大的期望,会问各类有趣的问题,比如多跳问题、六度关系查询等。借助实体链接技术小布助手可以精确识别用户所指,配合子图匹配技术可以处理实体问答、结构化问答、多跳问答、六度关系查询等,覆盖大部分结构化问题。


图:小布助手各类结构化问答示意


为了验证小布助手的实体链接能力,我们在自建评测集和千言评测集上都测试了我们的算法,可以取得良好的效果。



4.2 OGraph 中的应用


实体链接不仅可以应用到 KBQA,在信息抽取流程中也是至关重要的一环。Ograph 信息抽取流程使用了信息抽取模型 Casrel 和专门针对实体类问题训练的 MRC 模型,可以获得海量候选三元组。


得到三元组后需要利用实体链接技术,将三元组与知识库中的实体链接起来。为了保证实体链接的召回,我们优化了候选实体召回能力,同时使用挖掘的实体别名词表和 ES 检索系统进行召回,确保链接效果,通过整个流程生产三元组数百万。


图:OGraph信息抽取流程


5 总结


通过在实体链接技术上的探索,小布助手可以更好的解析各类实体口语化表达、别名和歧义,借助 KBQA 其他流程和 OGraph 丰富的知识储备,已经能够解答大部分用户提出的问题,自然语言理解道阻且长,小布助手的进化永远不会停止。


6 参考文献


1. Deep Joint Entity Disambiguation with Local Neural Attention. Octavian-Eugen Ganea, Thomas Hofmann.

2.Improving Entity Linking by Modeling Latent Entity Type Information,Shuang Chen, Jinpeng Wang, Feng Jiang, Chin-Yew Lin.

3.End-to-End Neural Entity Linking. Nikolaos Kolitsas, Octavian-Eugen Ganea, Thomas Hofmann.

4. Investigating Entity Knowledge in BERT with Simple Neural End-To-End Entity Linking, Samuel Broscheit.

5.Towards Deep Learning Models Resistant to Adversarial Attacks. A Madry, A Makelov, L Schmidt, D Tsipras.

6.Confident Learning: Estimating Uncertainty in Dataset Labels. Curtis G. Northcutt, Lu Jiang, Isaac L. Chuang.

7.Towards a Deep and Unified Understanding of Deep Neural Models in NLP. Chaoyu Guan, Xiting Wang, Quanshi Zhang, Runjin Chen, Di He, Xing Xie.

作者简介


FrankFan  

OPPO 高级 NLP 算法工程师

主要从事对话和知识图谱相关工作,在实体挖掘、序列标注、关系抽取、实体链接等方向具有丰富的研发经验,积累专利十余篇。

发布于: 2021 年 10 月 12 日阅读数: 18
用户头像

Hello World. 2021.07.09 加入

你好,我是小布,有趣又贴心的人工智能助手。

评论

发布
暂无评论
实体链接在OPPO小布助手和OGraph的实践应用