写点什么

恒源云 (GpuShare)_ 表序编码器的联合实体和关系提取 (论文浅谈)

作者:恒源云
  • 2022 年 3 月 10 日
  • 本文字数:2760 字

    阅读完需:约 9 分钟

恒源云(GpuShare)_表序编码器的联合实体和关系提取(论文浅谈)

文章来源 | 恒源云社区


原文地址 | 两个都比一个好:表序编码器的联合实体和关系提取


原文作者 | Mathor




code

Abstract

​ 对于联合实体关系抽取,许多研究者将联合任务归结为一个填表问题,他们主要专注于学习单个编码器来捕获同一空间内的两个任务所需的信息(一个表抽取实体和关系)。作者认为设计两个不同的编码器捕获这两种不同类型的信息更好,因此本文提出了一种新颖的 Table-Sequence 编码器,其中两个不同的编码器(Table 和序列编码器)被设计成在表示学习过程中相互帮助,本文并证明了两个编码器比一个更有优势。仍然使用表格结构,引入 BERT 中的 attention 权重进行表格中元素表示的学习。

1 Introduction

​ 在几种联合抽取的方法中,将 NER 和 RE 转化为一个填表问题,对于形成的 2D 表,表中每个条目捕获句子内两个独立单词的交互,NER 任务再被转化为一个序列标签问题,即对角线的条目是标签,而 RE 被认为是标签表内其他条目的问题;这种方法将 NER 和 RE 整合到一个表格中,实现了两个任务之间的潜在有用的交互。


作者认为一张表解决两个问题可能会受到特征混淆的影响(一个任务提取的特征可能与另一个任务的特征一致或冲突,从而导致学习模型变得混乱),其次这种结构没有充分利用到表结构,因为这种方法仍然是将表结构转化为序列,然后使用序列标签方法填表,因此在转化期间 2D 表中的关键结构信息可能会丢失(图 1 左下角共享相同的标签)。


​ 针对以上问题,本文提出一种新的方法解决上述限制。使用两种不同的结构(序列表示和表表示)单独表示 NER 和 RE;


通过这种结构不仅可以将这两个单独的表示用于捕获特定于任务的信息,而且作者设计了一种机制使两个子任务进行交互,以便利用 NER 和 RE 任务背后的内在联系。

2 Model

2.1 PROBLEM FORMULATION

NER 看做序列标注问题,其中 gold entity tags 是 BIO;RE 看做表格填充任务


​ 形式上,给定输入句子,维护标签表:


假设从 mention ​到 mention 有关系 r,则:


其中表示没有关系的单词对


表 3 显示了两个编码器在每一层的详细信息,以及如何交互


在每一层中,表编码器使用序列表示法来构造表表示法,然后序列编码器使用表表示法来对序列表示法进行上下文处理。

2.2 TEXT EMBEDDER

​ 对于包含 N 个单词的句子,其中单词嵌入为:,LSTM 计算的字符嵌入为:,由 BERT 产生的上下文单词嵌入:


将三个特征向量进行拼接,并使用 linear 来形成初始序列表示


2.3 TABLE ENCODER

​ 图 3 左侧所示的表格编码器是用于学习表格表示(N×N 个向量表格)的神经网络,其中第 i 行和第 j 列的向量对应于输入句子的第 i 和第 j 个单词。本文首先通过将序列表示的两个向量进行连接,然后是通过一个全连接层来构建一个非上下文表,以将隐藏大小减半。


​ 形式化上,对于第 l 层(表表示和序列表示交互的第 l 层),有


​ 接下来使用 GRU 的多维递归神经网络来对进行上下文处理,迭代计算每个单元格的隐藏状态以形成上下文化的表格表示,其中:


多维 GRU 通常沿着层、行和列的维度利用上下文,也就是说不仅考虑到了相邻行和列的单元格,还考虑上一层的单元格。对于表格法来说,句子长度为 N,那么时间复杂度就变成了,对角线条目的计算可以同时计算(将对角线条目定义为位置(i,j)处的偏移),然后通过并行化进行优化,将复杂度降低到


由图 4 直观上可以看到,让网络能够全方位的方位周围环境能提高性能,因此需要 4 个 RNN 来完成这个工作,从 4 个方向上访问上下文以对 2D 表进行建模,然而作者经验上发现只考虑情况 a 和 c 的设置效果与四种情况全部考虑所得到的的性能差不多,因此为了减少计算量,作者使用了两个方向,最终的表格表示是两个 RNN 的隐藏状态的串联:


2.4 SEQUENCE ENCODER

​ 通过 Sequence Encoder 学习序列表示(a sequence of vectors),其中第 i 个向量表示输入句子中的第 i 个单词,该结构类似于 transformer 结构,见图 3 的右半部分,本文用表格引导注意力(Table-Guided Attention)取代按比例缩放的点积注意力。


通用注意力的计算过程如下:


对于每个 query,输出是这些值的加权和,其中分配给每个 value 的权重由 query 与所有 key 的相关性确定:


其中 U 是可学习向量,g 是将每个 query-key pair 映射到向量的函数,图 5 中 f 的输出即是 query-key pair 构造的注意力权重。


本文的表格引导注意力中,输入即是上一层的序列表示,表格引导注意力是自注意力,注意力的得分函数 f 为:


表格引导注意力的优点:(1)不比计算 g 函数,因为已经从表编码器中获得(2)是沿行、列和层维度的上下文得到的表征,分别对应于 query、key、value,这样的上下文信息使网络能够更好的捕获更难的 word-word 依存关系(3)并且允许表编码器参与学习过程,从而形成两个编码器之间的双向交互。序列编码器的其余部件类似于 transformer,对于层,在自注意力之后使用前馈神经网络 FFNN,并使用残差连接和层标准化得到以获取输出序列表示:


2.5 EXPLOIT PRE-TRAINED ATTENTION WEIGHTS

​ 图 2、3 中的虚线来自预训练模型 BERT 的注意力权重形式的信息,本文将所有头部和所有层的注意力进行叠加,形成,其中是 transformer 的层数,是每层中 head 的数量,本文利用在表编码器中形成 MD-RNN 的输入,section2.3 中的公式 1 被替换成:


2.6 TRANING AND EVALUATION

​ 本文使用来预测实体标签和关系标签的概率分布:


其中是预测标签的随机变量,是概率估计函数,是模型参数


采用交叉熵计算损失:


其中,是 gold tag,目标函数是:

在评估过程中,关系的预测依赖于实体的预测,因此首先预测实测,然后查找关系概率表,查看预测的实体之间是否存在有效的关系,具体地说,通过选择概率最高的类别来预测每个单词的实体 tag:


整个 tag 序列可以被转换成具有其边界和类型的实体。对于给定的两个实体 span :,其关系由下式给出:


其中表示没有无关系

3 Experiments

3.1 MODEL STEP

根据 ACE05 验证集调参,其他数据集使用相同的设置,Glove 用于初始化词嵌入,BERT 使用默认的参数,堆叠了三层具有独立参数的编码层(图 2,每层中包含 GRU 单元),对于表编码器,使用两个独立的 MD-RNN;对于序列编码器,使用 8-head 注意力表示,结果如下:


4 启示

  1. 论文是写的真的好,表达能力很强

  2. transformer 框架的部分应用可以在其他地方使用

  3. 还是老生常谈的需要占用很多显存

  4. 表表示和序列表示的交互策略可以尝试修改成其他解码方式并实现交互

用户头像

恒源云

关注

专注人工智能云GPU服务器训练平台 2020.12.25 加入

还未添加个人简介

评论

发布
暂无评论
恒源云(GpuShare)_表序编码器的联合实体和关系提取(论文浅谈)_自然语言处理_恒源云_InfoQ写作平台