恒源云 _Child Tuning: 反向传播版的 Dropout
文章来源 | 恒源云社区(专注人工智能/深度学习云 GPU 服务器训练平台,官方体验网址:gpushare.com/ )
原文作者 | Mathor
这篇文章主要是对 EMNLP2021 上的论文Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning进行讲解。论文标题有些抽象,但是用作者的话来说,这篇论文的思想可以归结为两个词:Child Tuning
虽然这篇文章主要针对 NLP 任务以及 NLP 相关的模型,但实际上我看完之后觉得这是一个通用的方法,CV 领域也可以使用。具体来说,目前预训练模型的参数非常大,在下游任务中,我们只能用有限的训练集对模型进行微调,有一种螳臂当车的感觉,因此作者提出了一种新的微调方法——Child Tuning。如果用一句话概述其思想那就是:在反向传播过程中,我们不用更新所有的参数,只更新某些参数即可,而这些被更新的参数所对应的网络结构,我们叫做 Child Network(子网络)
如上图所示,上面一行是正常的反向传播过程,其中
下标 0 不是指某一个参数,而是指第 0 个迭代过程,是学习率。对于下面一行来说,有一部分被 MASK 掉了,导致这里面的梯度为 0
其中,矩阵内的元素非 0 即 1,是矩阵内的元素做对应位置相乘。我们可以用两步来概括 Child Tuning 的过程:
在预训练模型中发现并确认 Child Network,并生成对应 Weights 的 0-1 MASK
反向传播计算完梯度后,仅对 Child Network 中的参数进行更新
所以现在的问题是如何确认 Child Network?
HOW TO FIND CHILD NETWORK?
实际上我们并不需要真的找到 Child Network,只要确定矩阵即可。论文提供了两种算法用于生成矩阵,分别是任务无关算法 Child_Tuning_F (F for Task-Free)以及与具体任务相关的算法 Child_Tuning_D (D for Task-Drivern)
Child_Tuning_F
任务无关算法的意思是与你具体所做的具体任务没有关系,都可以使用这个算法,是一种通用的方法。具体来说,此时是根据伯努利分布生成的
其中是一个超参数,他控制着 Child Network 的大小,如果,则 Child Network 就是原网络,此时 Child Tuning 就是 Fine Tuning;如果,则没有任何参数会被更新。下面是我写的一个简单模拟的代码帮助大家理解
Bernoulli
是一个类,生成的gradient_mask
是一个对象,我们需要调用这个对象的sample()
方法才能得到一个矩阵。其中比较重要的一点是虽然我们得到了 0-1 MASK,但我们需要将这个 MASK 内所有的 1 扩大倍以维持梯度的期望值
别的梯度都不在了,活着的梯度要带着其他人的意志坚强的反向传播下去啊!
Child_Tuning_D
考虑到存在不同的下游任务,作者提出一种与具体任务相关的算法 Child_Tuning_D,它可以检测出对目标任务最重要的子网络(或者参数)。具体来说,作者采用Fisher信息估计法来寻找与特定下游任务高度相关的参数。形式上,模型参数的 Fisher Information Matrix(FIM)定义如下:
其中,分别是输入和输出,由此我们可以推出第个参数的 Fisher 信息如下:
其中,是所有样本的数量。作者认为,参数对目标任务越重要,其 Fisher 信息越大,因此 Child Tuning 是由 Fisher 信息最高的那些参数组成,此时 Child Network 的比例为
其中表示非子网络,当时,Child Tuning 就退化为了 Fine Tuning。实际上 Fisher 信息的计算是相当耗时的,如果我们每次反向传播后都去计算一次所有参数的 Fisher 信息,然后找出最大的前几个是很麻烦的,因此作者提出在真正开始训练之前,我们先对所有样本进行一次完整(一个 Epoch)的前向传播和反向传播,此时计算出 Fisher 信息最高的那些参数,以及此时确定的 Child Network 以后就不再变化了,就以这一次所选定的为准
下面给出计算 Fisher 信息的代码
PROOF
如果这篇论文就讲了这些东西,很大概率是中不了 EMNLP 的,之所以被录用了,我个人觉得和这篇论文里大量的证明有关,作者证明了使用 Child Tuning 可以帮助模型逃离局部极小值点,接下来我尝试着把论文中的证明部分说清楚
首先我们假设是给定样本时参数的梯度,并且它服从正态分布定义,,则有
对于,我们有
设,其中是(看你用的哪种算法),则
上面的公式推导其实并不严格,例如分子的是从哪来的就没法解释,分子的只有可能是的结果,可是是个矩阵,矩阵的期望怎么就变成一个数了呢?但要强行解释也可以,因为将中所有的 1 加起来除以内的所有元素似乎也是等于的设 分别是第维度上的值,那么有
因此
最终我们就得到
特别地,当参数训练到局部极小值点时,,此时,我们注意到是关于的一个递减函数,越大,越小,极端情况是,此时 Child Tuning 退化为 Fine Tuning,并且最小,相当于它的变化量每次都不大,因此就很难跳出局部极小值点;越小,越大,相当于它的变化量每次都很大,因此比较容易跳出局部极小值点
个人总结
这篇论文刚读的时候觉得很厉害,但实际上了解之后就觉得这其实就是一个反向传播版的 Dropout,实际的创新并没有特别大,包括其中提到的 Fisher 信息也并不是这篇论文提出来的。再就是论文中的实验确实很多,实验结果表明,相比于 Fine Tuning 大约可以提升 1.5~8.6 个点不等。最后要说一下这篇论文的公式证明部分,我个人觉得这篇论文的证明其实没有很严谨,例如为什么一个矩阵的期望就变成一个数了。总的来说这个方法可以作为打比赛时候的一个 Trick 来使用
U1S1,1 年 1 度 GPU 云种草大会来袭,十大活动礼包等你来拿哦~
评论