恒源云 _[SimCSE]:对比学习,只需要 Dropout?
文章来源 | 恒源云社区(恒源云,专注 AI 行业的共享算力平台)
原文地址 | Dropout
原文作者 | Mathor
要说 2021 年上半年 NLP 最火的论文,想必非《SimCSE: Simple Contrastive Learning of Sentence Embeddings》莫属。SimCSE 的全称是 Simple Contrastive Sentence Embedding
Sentence Embedding
Sentence Embedding 一直是 NLP 领域的一个热门问题,主要是因为其应用范围比较广泛,而且作为很多任务的基石。获取句向量的方法有很多,常见的有直接将[CLS]位置的输出当做句向量,或者是对所有单词的输出求和、求平均等。但以上方法均被证明存在各向异性(Anisotropy)问题。通俗来讲就是模型训练过程中会产生 Word Embedding 各维度表征不一致的问题,从而使得获得的句向量也无法直接比较
目前比较流行解决这一问题的方法有:
线性变换:BERT-flow、BERT-Whitening。这两者更像是后处理,通过对 BERT 提取的句向量进行某些变换,从而缓解各向异性问题
对比学习:SimCSE。 对比学习的思想是拉近相似的样本,推开不相似的样本,从而提升模型的句子表示能力
Unsupervised SimCSE
SimCSE 利用自监督学习来提升句子的表示能力。由于 SimCSE 没有标签数据(无监督),所以把每个句子本身视为相似句子。说白了,本质上就是作为正例、作为负例来训练对比学习模型。当然,其实远没有这么简单,如果仅仅只是完全相同的两个样本作正例,那么泛化能力会大打折扣。一般来说,我们会使用一些数据扩增手段,让正例的两个样本有所差异,但是在 NLP 中如何做数据扩增本身也是一个问题,SimCSE 提出了一个极为简单优雅的方案:直接把 Dropout 当做数据扩增!
具体来说,个句子经过带 Dropout 的 Encoder 得到向量,然后让这批句子再重新过一遍 Encoder(这时候是另一个随机 Dropout)得到向量 ,我们可以视为一对(略有不同的)正例,那么训练目标为
其中,。实际上式(1)如果不看和的部分,剩下的部分非常像是。论文中设定,至于这个有什么作用,我在网上看到一些解释:
如果直接使用余弦相似度作为 logits 输入到,由于余弦相似度的值域是,范围太小导致无法对正负样本给出足够大的差距,最终结果就是模型训练不充分,因此需要进行修正,除以一个足够小的参数将值进行放大
超参数会将模型更新的重点,聚焦到有难度的负例,并对它们做相应的惩罚,难度越大,也即是与距离越近,则分配到的惩罚越多。其实这也比较好理解,我们将除以相当于同比放大了负样本的 logits 值,如果足够小,那么那些越靠近 1 的负样本,经过的放大后会占主导
个人觉得没有严格的数学证明,单从感性的角度去思考一个式子或者一个符号的意义是不够的,因此在查阅了一些资料后我将这个超参数的作用整理成了另一篇文章:Contrastive Loss中参数的理解
总结一下 SimCSE 的方法,个人感觉实在是太巧妙了,因为给两个句子让人类来判断是否相似,这其实非常主观,例如:“我喜欢北京”跟“我不喜欢北京”,请问这两句话到底相不相似?模型就像是一个刚出生的孩子,你教它这两个句子相似,那它就认为相似,你教它不相似,于是它以后见到类似的句子就认为不相似。此时,模型的性能或者准确度与训练过程、模型结构等都没有太大关系,真正影响模型预测结果的是人,或者说是人标注的数据
但是如果你问任何一个人“我喜欢北京”跟“我喜欢北京”这两句话相不相似,我想正常人没有说不相似的。SimCSE 通过 Dropout 生成正样本的方法可以看作是数据扩增的最小形式,因为原句子和生成的句子语义是完全一致的,只是生成的 Embedding 不同而已。这样做避免了人为标注数据,或者说此时的样本非常客观
Alignment and Uniformity
对比学习的目标是从数据中学习到一个优质的语义表示空间,那么如何评价这个表示空间的质量呢?Wang and Isola(2020)提出了衡量对比学习质量的两个指标:alignment 和 uniformity,其中 alignment 计算和的平均距离:
而 uniformity 计算向量整体分布的均匀程度:
我们希望这两个指标都尽可能低,也就是一方面希望正样本要挨得足够近,另一方面语义向量要尽可能地均匀分布在超球面上,因为均匀分布的信息熵最高,分布越均匀则信息保留的越多。作者从维基百科中随机抽取十万条句子来微调 BERT,并在 STS-B dev 上进行测试,实验结果如下表所示:
其中 None 是作者提出的随机 Dropout 方法,其余方法均是在 None 的基础上对进行改变,可以看到,追加显式数据扩增方法均会不同程度降低模型性能,效果最接近 Dropout 的是删除一个单词,但是删除一个单词并不能对 uniformity 带来很大的提升,作者也专门做了个实验来证明,如下图所示:
Connection to Anisotropy
近几年不少研究都提到了语言模型生成的语义向量分布存在各向异性的问题,在探讨为什么 Contrastive Learning 可以解决词向量各向异性问题前,我们先来了解一下,什么叫各向异性。具体来说,假设我们的词向量设置为 2 维,如果各个维度上的基向量单位长度不一样,就是各向异性(Anisotropy)
例如下图中,基向量是非正交的,且各向异性(单位长度不相等),计算与的 cos 相似度为 0,与的余弦相似度也为 0。但是我们从几何角度上看,与其实是更相似的,可是从计算结果上看,与和的相似度是相同的,这种不正常的原因即是各向异性造成的
SimCSE 的作者证明了当负样本数量趋于无穷大时,对比学习的训练目标可以渐近表示为:
稍微解释一下这个式子,为了方便起见,接下来将称为第一项,称为第二项。
我们的最终目的是希望式(4)越小越好,具体来说,如果第一项越大、第二项越小,那么整体结果就非常小了。第一项大,则说明正样本对之间的相似度大;第二项小,则说明负样本对之间的相似度小,这也是我们最终希望看到的模型表现
接着我们尝试着从式(1)变换到式(4),注意实际上
从下面开始,就不存在严格的等于了,而是一些等价或者正比关系。例如原本,这里我们把分母省略掉,改成期望,同时将求和也改为期望,则
我们可以借助 Jensen 不等式进一步推导第二项的下界:
首先等号的部分很容易理解,就是把期望改成了概率求和的形式,并且把和又改回的形式。可能有同学不太了解 Jensen 不等式,这里我简单科普一下。对于一个凸函数,若且,则有
回到式(5)的证明,由于是凸函数,同时我们将看作是,看作是,应用 Jensen 不等式可得
算了半天,回顾一下我们的终极目标是要优化式(4),或者说最小化式(4)的第二项。设为对应的 Sentence Embedding 矩阵,即的第行是的最大特征值,也就是隐式地压平了嵌入空间的奇异谱,或者说使得嵌入空间的分布更均匀
到此为止,个人觉得已经将 SimCSE 核心内容讲的够清楚了,至于说原论文当中的监督学习部分,这里就不多赘言,因为本质上就是修改正样本对和负样本对的定义罢了
Results
原论文的实验非常丰富,读者可以仔细阅读原文,这里简单贴出一个实验对比图
总体结果没有什么好分析的,通过上图我们可以知道 SimCSE 在多个数据集上都达到了 SOTA,并且作者发现,在原有的训练目标的基础上加入 MLM 预训练目标,将两个目标的 loss 按比例相加 一起训练,能够防止 SimCSE 忘记 token 级别的知识,从而提升模型效果。这倒是让我感觉有点讶异的,做了那么多的操作,好不容易使得模型能够比较好的提取句子级别的特征了,结果 token 级别的知识又忘记了,真是拆了东墙补西墙
Code
虽然理论上我们说 SimCSE 是将同一个批次内的句子分别送入两个 Encoder(这两个 Encoder 仅仅只是 Dropout 不同),但实现的时候我们其实是将一个 batch 内的所有样本复制一遍,然后通过一次 Encoder 即可。假设初始输入为两条句子,首先复制一遍,那么经过 Encoder 得到的句向量为,现在的问题在于,我们的 label 是什么?
很明显我们知道如果给定,他们的 label 是 1;如果给定,他们的 label 是 1,其它情况均是 0,所以给我们可以给出下面这样一张表格(标签为 1 的地方是相同句子不同 Embedding 的位置)
上面的表格可以转换为 label:。假设原始 batch 内有 4 条句子,复制后就共有 8 条句子,按照上述表格的排列方式,我们可以得到 label:。按照这个规律生成 label 就可以了,而且这个规律其实挺明显的,就不解释了
评论