深度学习基本部件 - 激活函数详解
本文分析了激活函数对于神经网络的必要性,同时讲解了几种常见的激活函数的原理,并给出相关公式、代码和示例图。
激活函数概述
前言
人工神经元(Artificial Neuron),简称神经元(Neuron),是构成神经网络的基本单元,其主要是模拟生物神经元的结构和特性,接收一组输入信号并产生输出。生物神经元与人工神经元的对比图如下所示。
从机器学习的角度来看,神经网络其实就是一个非线性模型,其基本组成单元为具有非线性激活函数的神经元,通过大量神经元之间的连接,使得多层神经网络成为一种高度非线性的模型。神经元之间的连接权重就是需要学习的参数,其可以在机器学习的框架下通过梯度下降方法来进行学习。
激活函数定义
激活函数(也称“非线性映射函数”),是深度卷积神经网络模型中必不可少的网络层。
假设一个神经元接收 个输入 ,令向量 来表示这组输入,并用净输入(Net Input) 表示一个神经元所获得的输入信号 的加权和:
其中 是 维的权重矩阵, 是偏置向量。
以上公式其实就是带有偏置项的线性变换(类似于放射变换),本质上还是属于线形模型。为了转换成非线性模型,我们在净输入 后添加一个非线性函数 (即激活函数)。
由此,典型的神经元结构如下所示:
激活函数性质
为了增强网络的表示能力和学习能力,激活函数需要具备以下几点性质:
连续并可导(允许少数点上不可导)的非线性函数。可导的激活函数 可以直接利用数值优化的方法来学习网络参数。
激活函数及其导函数要尽可能的简单,有利于提高网络计算效率。
激活函数的导函数的值域要在一个合适的区间内,不能太大也不能太小,否则会影响训练的效率和稳定性.
Sigmoid 型函数
Sigmoid 型函数是指一类 S 型曲线函数,为两端饱和函数。常用的 Sigmoid 型函数有 Logistic 函数和 Tanh 函数。
相关数学知识: 对于函数 ,若 时,其导数 ,则称其为左饱和。若 时,其导数 ,则称其为右饱和。当同时满足左、右饱和时,就称为两端饱和。
Sigmoid 函数
对于一个定义域在 中的输入,sigmoid
函数将输入变换为区间 (0, 1)
上的输出(sigmoid 函数常记作 ):
sigmoid 函数的导数公式如下所示:
sigmoid 函数及其导数图像如下所示:
注意,当输入为 0 时,sigmoid 函数的导数达到最大值 0.25; 而输入在任一方向上越远离 0 点时,导数越接近 0
。
sigmoid
函数在隐藏层中已经较少使用,其被更简单、更容易训练的 ReLU 激活函数所替代。
当我们想要输出二分类或多分类、多标签问题的概率时,sigmoid
可用作模型最后一层的激活函数。下表总结了常见问题类型的最后一层激活和损失函数。
nn.BCEWithLogitsLoss()
函数等效于sigmoid + nn.BCELoss
。
Tanh 函数
Tanh
(双曲正切)函数也是一种 Sigmoid 型函数,可以看作放大并平移 Sigmoid 函数,其能将其输入压缩转换到区间 (-1, 1)
上。公式如下所示:
Sigmoid 函数和 Tanh 函数曲线如下图所示:
两种激活函数实现和可视化代码如下所示:
另外一种 Logistic 函数和 Tanh 函数的形状对比图:
来源: 《神经网络与深度学习》图 4.2。
Logistic 函数和 Tanh 函数都是 Sigmoid 型函数,具有饱和性,但是计算开销较大。因为这两个函数都是在中间(0 附近)近似线性,两端饱和。因此,这两个函数可以通过分段函数来近似。
ReLU 函数及其变体
ReLU 函数
ReLU
(Rectified Linear Unit,修正线性单元),是目前深度神经网络中最经常使用的激活函数。公式如下所示:
以上公式通俗理解就是,ReLU
函数仅保留正元素并丢弃所有负元素。
1,优点:
ReLU
激活函数计算简单;具有很好的稀疏性,大约 50% 的神经元会处于激活状态。
函数在 时导数为 1 的性质(左饱和函数),在一定程度上缓解了神经网络的梯度消失问题,加速梯度下降的收敛速度。
相关生物知识: 人脑中在同一时刻大概只有 1% ∼ 4% 的神经元处于活跃 状态。
2,缺点:
ReLU 函数的输出是非零中心化的,给后一层的神经网络引入偏置偏移,会影响梯度下降的效率。
ReLU 神经元在训练时比较容易“死亡”。如果神经元参数值在一次不恰当的更新后,其值小于 0,那么这个神经元自身参数的梯度永远都会是 0,在以后的训练过程中永远不能被激活,这种现象被称作“死区”。
ReLU 激活函数的代码定义如下:
ReLU 激活函数及其函数梯度图如下所示:
Leaky ReLU/PReLU/ELU/Softplus 函数
1,Leaky ReLU
函数: 为了缓解“死区”现象,研究者将 ReLU 函数中 的部分调整为 , 其中 常设置为 0.01 或 0.001 数量级的较小正数。这种新型的激活函数被称作带泄露的 ReLU(Leaky ReLU
)。
2,PReLU 函数: 为了解决 Leaky ReLU 中超参数 不易设定的问题,有研究者提出了参数化 ReLU(Parametric ReLU,PReLU
)。参数化 ReLU 直接将 也作为一个网络中可学习的变量融入模型的整体训练过程。对于第 个神经元,PReLU
的 定义为:
3,ELU
函数: 2016 年,Clevert
等人提出了 ELU
(Exponential Linear Unit,指数线性单元),它是一个近似的零中心化的非线性函数。ELU 具备 ReLU 函数的优点,同时也解决了 ReLU 函数的“死区”问题,但是,其指数操作也增加了计算量。 是一个超参数,决定 时的饱和曲线,并调整输出均值在 0
附近。ELU
定义为:
4,Softplus
函数: Softplus 函数其导数刚好是 Logistic 函数.Softplus 函数虽然也具有单侧抑制、宽 兴奋边界的特性,却没有稀疏激活性。Softplus
定义为:
注意: ReLU 函数变体有很多,但是实际模型当中使用最多的还是 ReLU
函数本身。
ReLU、Leaky ReLU、ELU 以及 Softplus 函数示意图如下图所示:
Swish 函数
Swish
函数[Ramachandran et al., 2017] 是一种自门控(Self-Gated)激活 函数,定义为
其中 为 Logistic 函数, 为可学习的参数或一个固定超参数。 可以看作一种软性的门控机制。当 接近于 1
时,门处于“开”状态,激活函数的输出近似于 本身;当 接近于 0
时,门的状态为“关”,激活函数的输出近似于 0
。
Swish
函数代码定义如下,结合前面的画曲线代码,可得 Swish 函数的示例图。
Swish 函数可以看作线性函数和 ReLU 函数之间的非线性插值函数,其程度由参数 控制。
激活函数总结
常用的激活函数包括 ReLU
函数、sigmoid
函数和 tanh
函数。下表汇总比较了几个激活函数的属性:
参考资料
《解析卷积神经网络-第 8 章》
《神经网络与深度学习-第 4 章》
版权声明: 本文为 InfoQ 作者【嵌入式视觉】的原创文章。
原文链接:【http://xie.infoq.cn/article/1f3570addb993ab477963e925】。文章转载请联系作者。
评论