BP 神经网络(算法整体思路及原理 + 手写公式推导)
1. 简介
BP(back propagation)神经网络是 1986 年由 Rumelhart 和 McClelland 为首的科学家提出的概念,是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛的神经网络。BP 网络是在输入层与输出层之间增加若干层(一层或多层)神经元,这些神经元称为隐单元,它们与外界没有直接的联系,但其状态的改变,则能影响输入与输出之间的关系,每一层可以有若干个节点。
2. 计算过程
首先,我们先来了解一下神经网络图示基本含义:
上图为神经网络的一部分,x1,x2,x3 为外部输入,w1,w2,w3 为这些输入的权重(表示这些输入的重要程度)。后面的大⚪相当与一个神经元,其中∑ = x1w1 + x2w2 + x3w2 - β ( β为偏置) ,y = f(∑) ,f 为激活函数,最常见激活函数是 Sigmoid 函数,其图像及表达式如下图所示(本文后面所有激活函数都为 Sigmoid 函数)
了解了神经元图示的基本含义,现在来说一下 BP 神经网络的整体流程如下:
我们以下图为例讲述 BP 神经网络实现流程:首先神经网络一共有三部分组成:输入层、隐藏层、输出层(其中隐藏层可以有多层,本图中只有一层)。图中输入层有两个神经元、隐藏层有三个神经元、输出层有一个神经元。我们通过计算可以得出ŷ的值(后文会有详细计算过程),这就是我们根据所给数据得到的输出结果,我们需要和输出的预期结果进行比较,如果发现两个结果十分符合,那么表示我们所设置的期望和偏置是较优的,不需要进行修改(注:图中的期望 w、v、β、λ都是我们自己事先设置的数值);如果发现两个结果相差较大,这表面我们事先设置的参数不合适(w、v、β、λ),需要进行修改。这时候我们需要从后往前的算出这些参数的的变化量,然后更新参数的数值,重新计算输出,直到得到的输入结果和预期相符停止。
3. 权重偏置更新公式推导
同样的,我们以这张图为例来推导权重(w、v)偏置(β、λ)更新公式。
下图为三部分整体图片(方便阅读)
4. BP 神经网络优劣势
BP 神经网络无论在网络理论还是在性能方面已比较成熟。其突出优点就是具有很强的非线性映射能力和柔性的网络结构。网络的中间层数、各层的神经元个数可根据具体情况任意设定,并且随着结构的差异其性能也有所不同。但是 BP 神经网络也存在以下的一些主要缺陷。①学习速度慢,即使是一个简单的问题,一般也需要几百次甚至上千次的学习才能收敛。②容易陷入局部极小值。③网络层数、神经元个数的选择没有相应的理论指导。④网络推广能力有限。
版权声明: 本文为 InfoQ 作者【秃头小苏】的原创文章。
原文链接:【http://xie.infoq.cn/article/43dbf93a1d795616cb3e9ffc8】。文章转载请联系作者。
评论