写点什么

恒源云 _LLD: 内部数据指导的标签去噪方法【ACL 2022】

作者:恒源云
  • 2021 年 12 月 16 日
  • 本文字数:1620 字

    阅读完需:约 5 分钟

恒源云_LLD: 内部数据指导的标签去噪方法【ACL 2022】

文章来源 | 恒源云社区(恒源云,专注 AI 行业的共享算力平台)


原文地址 | LLD: 内部数据指导的标签去噪方法


原文作者 | Mathor




大佬发文太勤快,再不搬运,我自己都不好意思了,所以今天给大家带来新的内容啦~

正文开始:

很多数据集中的标签都存在错误,即便它们是由人来标注的,错误标签的存在会给模型训练带来某些负面影响。目前缓解这种影响有诸如删除错误标签、降低其权重等方法。ACL2022 有一篇名为《A Light Label Denoising Method with the Internal Data Guidance》的投稿提出了一种基于样本内部指导的方法解决这个问题


先前有研究表明同一类别的样本在本质上是相似和相关的,不同类别的样本存在明显差异。在文本分类任务中,两个有着相似内容的句子应该被预测为同一个类别,但是实际情况并不总是这样。当训练数据面临一定程度的噪声时,这个问题可能会更加严重,因为模型只收到标签的指导/监督。这就自然而然提出了一个问题:除了标签之外,我们能否从训练样本之间的关系寻求指导?


以文本分类数据为例,有个样本的数据集可以被定义为



其中,表示共有

CONTEXTUAL REPRESENTATION

我们首先需要一个指标判断两个句子是否相似。目前有两大类文本相似度计算方法,第一种是基于传统的符号表征,例如编辑距离、Jaccard Similarity Coeffieient 以及 Earth Mover’s Distance;第二种是将文本映射为稠密的向量,然后计算它们的向量相似度。第一种方法过于依赖 token 的表面信息,第二种方法需要使用外部数据对模型进行预训练,而这个外部数据和我们的任务数据可能不是同一领域的。因此作者基于 Postive Pointwise Mutual Information (PPMI)提出了一个新的上下文表征方法


首先,我们用一个长度为 2 的滑动窗口统计数据集中所有 token 的共现矩阵表示前一个词是 ,后一个词是出现的次数,然后我们计算的 PPMI 矩阵



其中,分别是从共现矩阵中计算得到的。最终,向量是词的表示

WORD WEIGHT

由于不同的词对于句子含义的贡献不同,我们更关注那些对分类更有帮助的词,而不是一些常见的词(例如 a, the, of)。作者提出一个计算词权重的算法:



其中,ccc 是词出现频率最高的类别,是类别 ccc 中单词的样本数,是除了类别之外所有类别中单词的样本数,是类别的样本数,是一个小的平滑值(例如 0.1)。

GUIDING THE TRAINING

给定包含个单词的句子,以及包含个单词的句子,它们的相似度为:



很明显,总是大于 0 的,因为​​一定大于等于 0,向量中的元素根据计算公式也都是大于等于 0 的,中,当向量中的元素都大于等于 0 时,结果一定大于 0


在含有个类别的文本分类任务中,模型对于第个样本的预测概率分布可以记为



其中, >并且。因此模型对于样本预测概率分布的相似度为



在训练过程中,损失函数定义为:



其中



换言之,当两个句子的相似度大于阈值时,我们就认为它们非常相似,那么它们的标签大概率应该是相同的,反映到预测概率分布上,它们预测概率分布向量的余弦相似度应该接近于 1 才对,如果单纯这么考虑的话,实际上我们有如下定义的损失函数



极端情况下,当时,加法后面所带来的损失就为 0 了;当时,后面是有损失的

RESULT


论文的实验阵容还算豪华,某种程度上来说让人比较意外的地方是这种简单修改损失函数的办法居然超过了 R-Drop。其中 LLD-DW 将矩阵用 Word2vec 进行替换,其他步骤保持不变,结果发现用 Word2vec 反而没有作者提出的简单统计方法好

个人总结

这篇文章本质上来讲,可以看作是多目标联合训练,除了传统的分类任务,引入了一个新的任务,这个任务的目标是希望两个句子的相似度与它们预测概率分布的相似度比较接近。反映到损失函数中来看就是在传统损失的后面添加了一项。阅读完这篇论文之后,说实话我不太确定它能否被 ACL 录用

用户头像

恒源云

关注

专注人工智能云GPU服务器训练平台 2020.12.25 加入

还未添加个人简介

评论

发布
暂无评论
恒源云_LLD: 内部数据指导的标签去噪方法【ACL 2022】