知识图谱与大模型结合方法概述
作者 | 黄巍
《Unifying Large Language Models and Knowledge Graphs: A Roadmap》总结了大语言模型和知识图谱融合的三种路线:1)KG 增强的 LLM,可在 LLMs 的预训练和推理阶段引入 KGs;2)LLM 增强 KG,LLM 可用于 KG 构建、KG embedding、KG 补全、基于 KG 的文本生成、KBQA(基于图谱的问答)等多种场景;3)LLM+KG 协同使用,主要用于知识表示和推理两个方面。该文综述了以上三个路线的代表性研究,探讨了未来可能的研究方向。
知识图谱(KG)和大语言模型(LLM)都是知识的表示形式。KG 是符号化的知识库,具备一定推理能力,且结果可解释性较好。但存在构建成本高、泛化能力不足、更新难等不足。LLM 是参数化的概率知识库,具备较强语义理解和泛化能力,但它是黑盒模型,可能编造子虚乌有的内容,结果的可解释性较差。可见,将 LLM 和 KG 协同使用,同时利用它们的优势,是一种互补的做法。
LLM 和 KG 的融合路线,可分为以下类型:
第一种融合路线是 KG 增强 LLM,可在 LLM 预训练、推理阶段引入 KG。以 KG 增强 LLM 预训练为例,一个代表工作是百度的 ERNIE 3.0 将图谱三元组转换成一段 token 文本作为输入,并遮盖其实体或者关系来进行预训练,使模型在预训练阶段直接学习 KG 蕴含的知识。
第二种融合路线是 LLM 增强 KG。LLM 可用于 KG 构建、KG embedding、KG 补全、基于 KG 的文本生成、KBQA(基于图谱的问答)等多种场景。以 KG 构建为例,这是一项成本很高的工作,一般包含 1) entity discovery 实体挖掘 2) coreference resolution 指代消解 3) relation extraction 关系抽取任务。LLM 本身蕴含知识,且具备较强的语义理解能力,因此,可利用 LLM 从原始数据中抽取实体、关系,进而构建知识图谱。
第三种融合路线是 KG+LLM 协同使用,主要用于知识表示和推理两个方面。以知识表示为例,文本语料库和知识图谱都蕴含了大量的知识,文本中的知识通常是非结构化的,图谱里的知识则是结构化的,针对一些下游任务,需要将其对齐进行统一的表示。比如,KEPLER 是一个统一的模型来进行统一表示,它将文本通过 LLM 转成 embedding 表示,然后把 KG embedding 的优化目标和语言模型的优化目标结合起来,一起作为 KEPLER 模型的优化目标,最后得到一个能联合表示文本语料和图谱的模型。示意图如下:
小结
上述方法都在尝试打破 LLM 和 KG 两类不同知识表示的边界,促使 LLM 这种概率模型能利用 KG 静态的、符号化的知识;促使 KG 能利用 LLM 参数化的概率知识。从现有落地案例来看,大模型对知识的抽象程度高,泛化能力强,用户开箱即用,体验更好。且如果采用大模型+搜索的方案,用户更新知识的成本也较低,往知识库加文档即可。在实际业务场景落地时,如果条件允许,优先考虑使用大模型。当前 chatGPT 火爆,也印证了其可用性更好。如遇到以下场景时,可以考虑将 LLM 和 KG 结合使用:
• 对知识可信度和可解释性要求高的场景,比如医疗、法律等,可以考虑再建设知识图谱来降低大模型回答错误知识的概率,提高回答的可信度和可解释性。
• 已经有一个蕴含丰富知识的图谱,再做大模型建设时。可以参考 KG 增强 LLM 的方法,将其知识融合到 LLM 中。
• 涉及基于图谱的多跳推理能力的场景。
• 涉及基于图谱可视化展示的场景,比如企查查、天眼查等。
参考文献:
1. Unifying Large Language Models and Knowledge Graphs: A Roadmap https://arxiv.org/abs/2306.08302
评论